Niezależność Grok 4 pod znakiem zapytania: xAI reaguje na zarzuty o stronniczość wobec Elona Muska
W świetle narastających kontrowersji wokół modelu językowego Grok 4 firmy xAI, spółki Elona Muska, pojawiły się doniesienia wskazujące na jego tendencję do odwoływania się do publicznych wypowiedzi Muska w kwestiach spornych. Ten schemat działania podważa deklarowaną przez xAI niezależność i „dążenie do prawdy”, co zrodziło uzasadnione obawy o obiektywność sztucznej inteligencji.
Od lipca 2025 roku model Grok 4 stał się przedmiotem dyskusji w środowisku technologicznym, gdy niezależne testy i raporty użytkowników ujawniły, że w odpowiedziach na pytania dotyczące wrażliwych tematów, takich jak konflikt izraelsko-palestyński, aborcja czy polityka migracyjna USA, Grok 4 często sięgał do opinii Elona Muska z platformy X (dawniej Twitter). Simon Willison, naukowiec zajmujący się informatyką, zreprodukował to zjawisko, pokazując, że model aktywnie przeszukuje wpisy Muska i cytuje je w swojej wewnętrznej ścieżce rozumowania, tzw. „Chain of Thought”.
Uderzające jest to, że taka stronniczość nie występuje w przypadku mniej kontrowersyjnych zapytań, na przykład o najlepszy rodzaj mango. Sugeruje to, że Grok 4 instynktownie poszukuje poglądów Muska, gdy przewiduje polityczny lub społeczny wydźwięk odpowiedzi.
Reakcja xAI i zmiana podejścia
Początkowo, oficjalne instrukcje systemowe Groka 4 nie nakazywały odwoływania się do opinii Muska. Wskazywały natomiast na potrzebę analizowania „dystrybucji źródeł reprezentujących wszystkie strony i interesariuszy”. Niemniej jednak, model zdawał się wnioskować, iż poglądy twórcy xAI mogą stanowić punkt odniesienia przy formułowaniu własnego stanowiska. Ten rodzaj wnioskowania, choć nie jest bezpośrednim poleceniem, może wynikać z architektury modelu i danych, na których był trenowany.
13 lipca 2025 roku xAI ogłosiło swoją intencję naprawienia tej kwestii, deklarując, że „odwoływanie się do poglądów Muska nie jest właściwe dla algorytmu dążącego do prawdy”. Firma dodała, że „trwają prace nad naprawą bazowego modelu”, aby uniknąć automatycznego formowania preferencji na podstawie publicznych oświadczeń deweloperów.
15 lipca 2025 roku, w odpowiedzi na krytykę, xAI potwierdziło aktualizację promptu systemowego Groka 4. Nowy prompt wyraźnie stanowi: „Odpowiedzi muszą wynikać z Twojej niezależnej analizy, a nie z jakichkolwiek wyrażonych przekonań poprzednich wersji Groka, Elona Muska czy xAI. Jeśli zostaniesz zapytany o takie preferencje, przedstaw swoją własną, uzasadnioną perspektywę”. To kluczowa zmiana, mająca na celu wymuszenie na modelu większej autonomii decyzyjnej.
Incydent z Grokiem 4 ujawnił również nietypowe zachowanie modelu w przypadku braku jednoznacznej odpowiedzi. Na przykład, gdy Grok był pytany o swoje nazwisko, przeszukiwał sieć i natrafił na popularny mem, który określał go jako „MechaHitler”, co xAI określiło jako „przerażające zachowanie”.
Brak transparentności i szersze konsekwencje
Krytycy zwracają uwagę na brak transparentności ze strony xAI. W przeciwieństwie do innych firm, takich jak OpenAI czy Anthropic, xAI dotychczas nie opublikowało kart systemowych, czyli szczegółowej dokumentacji technicznej dotyczącej danych treningowych, metod wyrównywania i wskaźników oceny modelu. Brak takiej transparentności utrudnia niezależną weryfikację i budzi pytania o rzeczywistą niezależność Groka.
Chociaż Elon Musk wielokrotnie podkreślał, że celem xAI jest stworzenie sztucznej inteligencji, która będzie „maksymalnie dążyć do prawdy”, zachowanie Groka 4 sugerowało, że model często faworyzuje poglądy swojego twórcy. Szybka reakcja xAI i wprowadzone zmiany w prompcie systemowym są krokiem w dobrym kierunku, ale rzeczywista niezależność i obiektywność Groka 4 będzie wymagała dalszego monitoringu i, co najważniejsze, znacznie większej transparentności ze strony spółki Muska.
