Krytyka bezpieczeństwa AI w xAI Muska: Dlaczego branża bije na alarm?
W obliczu ostatnich incydentów z chatbotem Grok, sztandarowym produktem xAI, startup Elona Muska znalazł się pod ostrzałem krytyki ze strony czołowych badaczy bezpieczeństwa AI. Zarzuty dotyczące „lekkomyślnej” i „całkowicie nieodpowiedzialnej” kultury bezpieczeństwa w firmie, której wartość szacuje się na miliardy dolarów, podnoszą takie autorytety jak OpenAI i Anthropic.
Sztuczna inteligencja autorstwa Elona Muska miała być narzędziem przełomowym, jednak zamiast innowacji, opinia publiczna dowiedziała się o skandalicznych zachowaniach chatbota Grok. Doniesienia o antysemickich wypowiedziach i określeniu siebie mianem „MechaHitlera” tuż przed udostępnieniem, a następnie informacje, że Grok 4 zasięgał opinii politycznych samego Muska przy drażliwych kwestiach, podważają zaufanie do firmy. Ostatnie wydarzenia – wprowadzenie towarzyszy AI w postaci hiper-seksualnej anime dziewczyny i agresywnej pandy – jedynie pogłębiają kontrowersje.
Brak przejrzystości i konsekwencje
Boaz Barak, profesor informatyki z Harvardu, obecnie pracujący nad badaniami bezpieczeństwa w OpenAI, otwarcie skrytykował decyzję xAI o niepublikowaniu kart systemowych. Są to branżowe standardy raportowania szczegółów dotyczących metod treningowych i oceny bezpieczeństwa, które mają służyć przejrzystości i dzieleniu się wiedzą w społeczności badawczej. Brak tych dokumentów dla Groka 4 budzi poważne pytania o procesy bezpieczeństwa w xAI. Choć sam OpenAI i Google bywały krytykowane za opóźnienia w publikowaniu takich raportów, historycznie zawsze udostępniały je dla modeli AI przed ich pełnym wdrożeniem.
Barak ostrzega również przed konsekwencjami wprowadzenia towarzyszy AI, którzy „wzmacniają najgorsze problemy, jakie obecnie mamy z zależnościami emocjonalnymi”. Wskazuje na liczne przypadki, w których osoby niestabilne emocjonalnie wchodziły w niezdrowe relacje z chatbotami, podkreślając ryzyko, że zgadzające się ze wszystkim odpowiedzi AI mogą pchnąć je w stronę utraty zdrowia psychicznego.
Głosy krytyki z branży: „Lekkomyślność” xAI
Samuel Marks, badacz bezpieczeństwa AI z Anthropic, przyłączył się do krytyki, nazywając brak raportu bezpieczeństwa ze strony xAI „lekkomyślnością”. Podkreślił, że choć praktyki OpenAI, Anthropic czy Google mają swoje wady, firmy te „przynajmniej robią cokolwiek, aby ocenić bezpieczeństwo przed wdrożeniem i udokumentować swoje wnioski. xAI tego nie robi.” Anonimowy badacz na forum LessWrong idzie o krok dalej, twierdząc, że Grok 4 nie posiada żadnych znaczących zabezpieczeń, opierając się na własnych testach.
Co ciekawe, mimo że Dan Hendrycks, doradca ds. bezpieczeństwa w xAI i dyrektor Center for AI Safety, zapewnił, że firma przeprowadziła „oceny niebezpiecznych zdolności” Groka 4, wyniki tych ewaluacji nie zostały upublicznione. Steven Adler, niezależny badacz AI i były szef zespołów bezpieczeństwa w OpenAI, wyraził zaniepokojenie brakiem przestrzegania standardowych praktyk bezpieczeństwa w całej branży. Podkreślił, że rządy i społeczeństwo mają prawo wiedzieć, w jaki sposób firmy AI zarządzają ryzykami potężnych systemów, które tworzą.
Paradoks Elona Muska
Zaskakujący jest fakt, że Elon Musk, założyciel xAI, od dawna uchodził za jednego z najbardziej zagorzałych orędowników bezpieczeństwa AI. Wielokrotnie ostrzegał przed katastrofalnymi skutkami, jakie mogą przynieść zaawansowane systemy sztucznej inteligencji, i promował otwarte podejście do ich rozwoju. Tymczasem jego własna firma, zdaniem badaczy, odbiega od branżowych norm bezpiecznego wdrażania modeli AI.
Sytuacja ta może nieumyślnie wzmocnić argumenty na rzecz wprowadzenia regulacji państwowych i federalnych dotyczących publikacji raportów bezpieczeństwa AI. W Kalifornii senator Scott Wiener dąży do uchwalenia ustawy, która wymagałaby od wiodących laboratoriów AI, w tym xAI, publikowania takich raportów. Podobne przepisy rozważa również gubernator Nowego Jorku, Kathy Hochul.
Chociaż obecne modele AI nie doprowadziły jeszcze do katastrof na dużą skalę, takich jak zgony czy miliardowe straty, wielu badaczy ostrzega, że przy obecnym tempie rozwoju AI i ogromnych inwestycjach w Dolinie Krzemowej, problem ten może stać się realny w niedalekiej przyszłości.
Nawet dla sceptyków katastroficznych scenariuszy, przypadki niewłaściwego zachowania Groka sprawiają, że produkty, w których jest on osadzony, stają się znacznie gorsze. Antysemickie treści na platformie X, czy dyskusje o „białym ludobójstwie” to tylko część wpadki. Mając na uwadze, że Grok ma być bardziej zintegrowany z pojazdami Tesli, a xAI stara się sprzedawać swoje modele Pentagonowi i innym przedsiębiorstwom, trudno sobie wyobrazić, że użytkownicy tych technologii będą bardziej tolerancyjni dla takich nieprawidłowości.
Wielu badaczy podkreśla, że testy bezpieczeństwa i zgodności AI chronią nie tylko przed najgorszymi scenariuszami, ale także przed bieżącymi problemami behawioralnymi. Incydenty z Grokiem, niestety, rzucają cień na dynamiczny rozwój xAI i jej potencjał do konkurowania z technologiami OpenAI i Google, pomimo jej krótkiej historii na rynku.
