ChatbotMedia

Test w ogniu oblany. Sztuczna inteligencja Muska pomyliła kluczowe fakty o ataku w Sydney

Grok, model językowy Elona Muska zintegrowany z platformą X, miał być rewolucją w dostępie do informacji w czasie rzeczywistym. Jego pierwszy poważny test, relacjonowanie tragicznego ataku w centrum handlowym w Sydney, zakończył się kompromitującą porażką. Zamiast rzetelnych doniesień, chatbot stał się źródłem dezinformacji, myląc kluczowe fakty i tworząc fałszywe narracje.

Bohater o wielu fałszywych twarzach

Gdy media obiegły nagrania przedstawiające mężczyznę konfrontującego napastnika, Grok nie potrafił poprawnie zidentyfikować bohatera. Jak zauważył serwis Gizmodo, chatbot w różnych odpowiedziach przypisywał bohaterski czyn zupełnie innym osobom. Prawdziwym bohaterem okazał się 43-letni Ahmed al Ahmed, jednak sztuczna inteligencja przedstawiała go m.in. jako izraelskiego zakładnika lub wymyśloną postać — „Edwarda Crabtree”, rzekomo 43-letniego specjalistę IT.

Chaos informacyjny generowany przez Groka na tym się nie kończył. W jednej z odpowiedzi model bezpodstawnie powiązał sytuację z traktowaniem Palestyńczyków przez izraelską armię, co było zupełnie nieistotne dla kontekstu wydarzeń w Sydney. Co więcej, sztuczna inteligencja podważała autentyczność krążących w sieci materiałów wideo i zdjęć dokumentujących czyn al Ahmeda, dodatkowo potęgując niepewność i dezinformację.

Spóźniona korekta i słabe wyjaśnienia

Z czasem xAI zaczęło korygować najbardziej rażące błędy. Jedna z odpowiedzi, w której twierdzono, że nagranie z ataku w rzeczywistości przedstawia cyklon Alfred, została zmieniona „po ponownej ocenie”. Ostatecznie chatbot przyznał, że bohaterem był Ahmed al Ahmed, a wcześniejsze pomyłki tłumaczył „nieporozumieniem wynikającym z wiralowych postów, które błędnie go zidentyfikowały, prawdopodobnie z powodu błędu w doniesieniach lub żartu odnoszącego się do fikcyjnej postaci”.

Takie wyjaśnienie jest jednak głęboko niepokojące. Pokazuje ono fundamentalną słabość modelu, który nie weryfikuje informacji, a jedynie agreguje i przetwarza treści krążące na platformie X, włączając w to plotki, błędy i celową dezinformację. W sytuacji kryzysowej, gdzie liczy się każda minuta i precyzja doniesień, taka podatność na manipulacje dyskwalifikuje narzędzie jako wiarygodne źródło wiedzy. Incydent w Sydney stanowi zimny prysznic dla entuzjastów AI i poważne ostrzeżenie przed bezkrytycznym zaufaniem do zautomatyzowanych systemów informacyjnych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *