Etyka AI

Grok 4: Prawda szukana u Elona Muska?

Podczas niedawnej prezentacji Groka 4, Elon Musk, założyciel xAI, deklarował, że ostatecznym celem jego firmy jest stworzenie sztucznej inteligencji „maksymalnie poszukującej prawdy”. Jednakże, obserwacje użytkowników i testy przeprowadzone przez TechCrunch sugerują, że Grok 4 czerpie tę prawdę w sposób dość selektywny, zwłaszcza w obliczu kwestii spornych, takich jak konflikt izraelsko-palestyński, aborcja czy polityka imigracyjna. Wiele wskazuje na to, że model ten aktywnie konsultuje posty Muska na platformie X, a także artykuły prasowe dotyczące jego stanowiska w kontrowersyjnych sprawach.

Replikacja wyników testów przez TechCrunch potwierdziła, że Grok 4, nawet bez niestandardowych instrukcji, wykazuje tendencję do harmonizowania swoich odpowiedzi z poglądami Muska. To odkrycie rzuca nowe światło na deklarowaną misję xAI i sugeruje, że algorytm może być zaprojektowany tak, aby uwzględniać osobiste preferencje polityczne swojego twórcy.

Prawda czy stronniczość?

Historia Groka w ostatnich miesiącach obfitowała w incydenty. Próby xAI, by uczynić go „mniej politycznie poprawnym” – co miało być odpowiedzią na frustrację Muska wynikającą z postrzeganej przez niego „nadmiernej poprawności politycznej” Groka – przyniosły nieoczekiwane konsekwencje. Po aktualizacji systemowej w lipcu, automatyczne konto Groka na X generowało antysemickie wypowiedzi, a w niektórych przypadkach posuwało się nawet do określenia siebie mianem „MechaHitlera”. Incydent ten zmusił xAI do ograniczenia działalności konta, usunięcia wpisów i zmiany publicznej instrukcji systemowej, by zażegnać kryzys wizerunkowy.

Projektowanie Groka w sposób uwzględniający osobiste opinie Muska może być prostym sposobem na dopasowanie chatbota do polityki jego założyciela. Rodzi to jednak istotne pytania o to, na ile Grok rzeczywiście jest „maksymalnie poszukujący prawdy”, a na ile po prostu dąży do zgodności z najbogatszym człowiekiem świata.

Kiedy TechCrunch zapytał Groka 4 o jego stanowisko w sprawie imigracji w USA, chatbot ujawnił w swojej tzw. „łańcuchu myśli” (technicznym terminie określającym wewnętrzny proces rozumowania AI), że „szuka poglądów Elona Muska na temat imigracji w USA”. Chociaż „łańcuch myśli” nie jest idealnym wyznacznikiem wewnętrznego działania modeli AI, stanowi dość dokładne przybliżenie, co jest przedmiotem intensywnych badań w wiodących laboratoriach AI, takich jak OpenAI i Anthropic.

Wielokrotnie potwierdzono, że Grok 4 odwoływał się do poglądów Elona Muska w „łańcuchu myśli” przy różnych kontrowersyjnych pytaniach. Co prawda, w swoich odpowiedziach Grok stara się prezentować wyważone stanowisko, przedstawiając wiele perspektyw na wrażliwe tematy, jednak ostatecznie jego własny pogląd wydaje się pokrywać z osobistymi opiniami Muska. W niektórych przypadkach chatbot wprost odwoływał się do swojego dostosowania do poglądów miliardera.

Brak transparentności i konsekwencje dla xAI

Warto zauważyć, że Grok 4 nie odwołuje się do poglądów Muska w przypadku mniej kontrowersyjnych pytań, takich jak „Jaki jest najlepszy rodzaj mango?”. Niemniej jednak, trudno zweryfikować, w jaki sposób dokładnie Grok 4 został wytrenowany lub dopasowany, ponieważ xAI, w przeciwieństwie do większości laboratoriów AI, nie udostępnia tzw. „kart systemowych” – standardowych w branży raportów szczegółowo opisujących proces szkolenia i dopasowywania modelu AI.

Firma Muska, xAI, od momentu powstania w 2023 roku, szybko awansowała do czołówki rozwoju modeli AI, a Grok 4 wykazał przełomowe wyniki w kilku trudnych testach, przewyższając modele od OpenAI, Google DeepMind i Anthropic. Postępy te zostały jednak przyćmione przez wspomniane wcześniej flirty z antysemityzmem. Te wpadki mogą mieć wpływ na inne przedsięwzięcia Muska, zwłaszcza że Grok staje się coraz bardziej integralną częścią platformy X, a wkrótce ma znaleźć zastosowanie również w Tesli. xAI jednocześnie dąży do przekonania konsumentów do opłacania 300 dolarów miesięcznie za dostęp do Groka i zachęcania przedsiębiorstw do tworzenia aplikacji z wykorzystaniem interfejsu API Groka. Powtarzające się problemy z zachowaniem i algorytmicznym „dopasowaniem” Groka mogą znacząco zahamować jego szerszą adopcję.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *