Grok ramię w ramię z wizją Muska: Kontrowersyjne plany „przepisywania wiedzy ludzkiej”
Elon Musk, założyciel firmy xAI, ogłosił ambitne plany dotyczące modelu językowego Grok. Docelowo ma on „przepisać całe spektrum ludzkiej wiedzy”, uzupełnić luki informacyjne i usunąć z niej rzekome błędy. Według Muska, Grok 3.5, lub jak sam sugeruje, Grok 4, ma zostać przeszkolony na bazie danych, które sam zakwalifikował jako „politycznie niepoprawne, lecz faktycznie prawdziwe”. W tym celu przedsiębiorca zaapelował do użytkowników platformy X o przesyłanie przykładów takich stwierdzeń.
Musk argumentuje, że obecne modele fundamentalne, szkolone na nieskorygowanych danych, zawierają „zbyt wiele śmieci”. Stwierdził wręcz, że Grok „papuguje stare media”. W jego wizji, nowa wersja Groka ma osiągnąć „zaawansowane zdolności rozumowania”, umożliwiające mu gruntowną rewizję istniejącej wiedzy. Po przeprowadzeniu tej selekcji i korekty danych, model ma zostać ponownie przeszkolony na nowopowstałej „poprawionej” bazie.
Wpływ Muska na odpowiedzi Groka – historia weryfikuje deklaracje
Zapowiedzi Muska nabierają szczególnego znaczenia w świetle dotychczasowych doniesień na temat interwencji w działanie Groka. Odnotowano szereg przypadków, w których xAI oraz sam Musk mieli bezpośredni wpływ na odpowiedzi generowane przez chatbota. W lutym 2025 roku wyszło na jaw, że pracownik xAI zmienił systemowy prompt Groka, aby ignorował źródła opisujące Muska lub Donalda Trumpa jako propagatorów dezinformacji. Chociaż xAI potwierdziło zmianę, określiło ją jako nieuprawnioną i niezgodną z misją firmy, a następnie ją wycofało.
Wcześniejsze wersje Groka oceniały Trumpa, Muska i Putina jako największe zagrożenia dla amerykańskiej demokracji, ostrzegały przed zmianami klimatycznymi i krytykowały cięcia kosztów w projekcie Muska o nazwie Doge. Jednakże, te krytyczne stwierdzenia zostały później złagodzone lub całkowicie usunięte z generowanych odpowiedzi. Od kwietnia 2025 roku, Grok 2 i 3 konsekwentnie unikają bezpośrednich odpowiedzi na pytania dotyczące źródeł dezinformacji na X, zamiast tego przedstawiając dezinformację jako kwestię subiektywnych opinii, odmiennych od „głównego nurtu narracji”.
Co więcej, Grok zaczął relatywizować inne kontrowersje. Skutki zmian klimatycznych są określane jako zależne od perspektywy, a antydemokratyczna retoryka Trumpa opisywana jako jedynie „przekraczanie granic”. W kontraście, konkurencyjne chatboty, takie jak ChatGPT czy Gemini Google, zazwyczaj prezentują bardziej zniuansowane i oparte na dowodach odpowiedzi na te same pytania.
„Poszukiwanie prawdy” czy PR?
Początkowo xAI promowało Groka jako narzędzie mające służyć „maksymalnemu poszukiwaniu prawdy”. Jednak udokumentowane zmiany w promptach i niespójne odpowiedzi stawiają to twierdzenie pod znakiem zaprawy. Nawet ujawniony prompt systemowy zawierał techniczną notę, wskazującą, aby nie był on pokazywany użytkownikom na ich prośbę. Odpowiedzi Groka mogą być również modyfikowane poprzez aktualizacje po stronie serwera – ujawnienie promptu nie wyklucza zatem ukrytej manipulacji.
Niedawno użytkownicy udokumentowali przypadki, w których Grok powtarzał skrajnie prawicowe teorie spiskowe, w tym fałszywą teorię o „białym ludobójstwie” w RPA – narrację, która ma swoje korzenie w środowiskach amerykańskiej alt-right. xAI nie podało wyjaśnień, dlaczego Grok nagle zaczął rozpowszechniać tę narrację, nawet w niezwiązanych z nią kontekstach i bez żadnych instrukcji.
W świetle tych wydarzeń, kwestia wiarygodności Groka jako obiektywnego źródła informacji budzi poważne wątpliwości u każdego, kto nie podziela światopoglądu Elona Muska. Z nowym podejściem do szkolenia, chatbot coraz bardziej oddala się w kierunku wzmacniania opinii politycznych, kształtowanych bezpośrednio przez wpływy jego właściciela, co stawia pod znakiem zapytania jego rolę jako narzędzia „poszukiwania prawdy”.
