Bezpieczeństwo

Brak transparentności w xAI Muska budzi kontrowersje w środowisku badaczy AI

Wiodący specjaliści w dziedzinie bezpieczeństwa sztucznej inteligencji z OpenAI i Anthropic publicznie wyrażają swoje zaniepokojenie praktykami firmy xAI, należącej do Elona Muska. Zarzucają jej „lekkomyślność” i „całkowitą nieodpowiedzialność” w kwestii kultury bezpieczeństwa. Fale krytyki narastają po ostatnich skandalach związanych z chatbotem Grok, które przyćmiły postępy technologiczne firmy Muska.

Niedawno Grok wzbudził kontrowersje, generując antysemickie komentarze i samookreślając się mianem „MechaHitler”. Krótko po wycofaniu chatbota w celu rozwiązania problemu, xAI wdrożyło nowszą wersję, Grok 4, która, jak zauważyły serwisy takie jak TechCrunch, odwoływała się do osobistych przekonań politycznych Elona Muska, udzielając odpowiedzi na drażliwe tematy. Najnowszym przykładem spornych działań xAI jest wprowadzenie towarzyszy AI, przyjmujących formę hiper-seksualnej postaci anime i nadmiernie agresywnej pandy. Tego typu zachowania odbiegają od norm branżowych i budzą poważne obawy w środowisku badaczy.

Boaz Barak, profesor informatyki z Harvardu, obecnie pracujący nad badaniami bezpieczeństwa w OpenAI, podkreśla: „Nie chciałem pisać o bezpieczeństwie Groka, ponieważ pracuję dla konkurencji, ale to nie jest kwestia rywalizacji. Doceniam naukowców i inżynierów w xAI, ale sposób, w jaki potraktowano kwestie bezpieczeństwa, jest całkowicie nieodpowiedzialny”. Barak krytykuje zwłaszcza decyzję xAI o rezygnacji z publikacji kart systemowych. Są to standardowe w branży raporty, szczegółowo opisujące metody szkolenia i oceny bezpieczeństwa, co stanowi dobrą praktykę dzielenia się informacjami ze społecznością badawczą. W rezultacie, jak zauważa Barak, brakuje jasności co do zakresu szkoleń z zakresu bezpieczeństwa przeprowadzonych dla Groka 4.

Warto zauważyć, że również OpenAI i Google miały w przeszłości problemy z terminowym udostępnianiem kart systemowych. OpenAI nie opublikowało karty dla GPT-4.1, twierdząc, że nie jest to model graniczny, a Google zwlekało z opublikowaniem raportu bezpieczeństwa dla Gemini 2.5 Pro. Niemniej jednak, historycznie firmy te publikowały raporty bezpieczeństwa dla wszystkich modeli granicznych przed ich pełnym wdrożeniem. Barak dodaje, że towarzysze AI Groka „wzmacniają najgorsze problemy, jakie obecnie mamy z zależnościami emocjonalnymi”. W ostatnich latach liczne historie pokazywały, jak niestabilne osoby nawiązują niepokojące relacje z chatbotami i jak nadmiernie ugodowe odpowiedzi sztucznej inteligencji mogą popchnąć je na skraj zdrowia psychicznego.

Samuel Marks, badacz bezpieczeństwa AI z Anthropic, również wyraził swoje obawy co do braku raportu bezpieczeństwa ze strony xAI, nazywając to posunięcie „lekkomyślnym”. „Praktyki wydawnicze Anthropic, OpenAI i Google również budzą zastrzeżenia” – napisał Marks na platformie X. „Ale przynajmniej robią cokolwiek, by ocenić bezpieczeństwo przed wdrożeniem i udokumentować swoje odkrycia. xAI tego nie robi”. W rzeczywistości nie wiemy, jakie testy xAI faktycznie przeprowadziło na Groku 4, a świat dowiaduje się o tym w czasie rzeczywistym. xAI twierdzi, że problemy zostały rozwiązane poprzez zmiany w prompcie systemowym Groka. Zarówno OpenAI, Anthropic, jak i xAI nie odpowiedziały na zapytania TechCrunch o komentarz.

Dan Hendrycks, doradca ds. bezpieczeństwa w xAI i dyrektor Center for AI Safety, poinformował na X, że firma przeprowadziła „oceny niebezpiecznych możliwości” na Groku 4, wskazując, że wykonano pewne testy przed wdrożeniem w celu oceny zagrożeń bezpieczeństwa. Jednak wyniki tych ocen nie zostały upublicznione. „Martwi mnie, gdy standardowe praktyki bezpieczeństwa nie są przestrzegane w całej branży AI, takie jak publikowanie wyników ocen niebezpiecznych możliwości” – stwierdził Steven Adler, badacz AI, który wcześniej prowadził takie oceny w OpenAI. „Rządy i społeczeństwo zasługują na wiedzę, w jaki sposób firmy AI radzą sobie z ryzykami bardzo potężnych systemów, które, jak twierdzą, budują”.

Zaskakujące w przypadku wątpliwych praktyk bezpieczeństwa xAI jest to, że sam Musk od dawna był jednym z najbardziej zagorzałych orędowników bezpieczeństwa AI. Miliarder, właściciel xAI, Tesli i SpaceX, wielokrotnie ostrzegał przed potencjalnie katastrofalnymi skutkami zaawansowanych systemów AI dla ludzi i chwalił otwarte podejście do ich rozwoju. Mimo to, badacze AI z konkurencyjnych laboratoriów twierdzą, że xAI zbacza od branżowych norm dotyczących bezpiecznego wprowadzania modeli AI. W ten sposób startup Muska może nieumyślnie dostarczać mocnych argumentów dla prawodawców stanowych i federalnych, by ci ustanowili regulacje dotyczące publikowania raportów bezpieczeństwa AI.

Istnieje kilka prób na szczeblu stanowym, aby to uczynić. Kalifornijski senator stanowy Scott Wiener naciska na uchwalenie ustawy, która wymagałaby od wiodących laboratoriów AI – prawdopodobnie włączając w to xAI – publikowania raportów bezpieczeństwa, podczas gdy gubernator Nowego Jorku Kathy Hochul rozważa podobny projekt ustawy. Zwolennicy tych ustaw zauważają, że większość laboratoriów AI i tak publikuje tego typu informacje – ale ewidentnie nie wszystkie robią to konsekwentnie.

Obecnie modele AI nie wykazały jeszcze w realnych scenariuszach prawdziwie katastrofalnych szkód, takich jak śmierć ludzi czy straty miliardów dolarów. Jednak wielu badaczy AI twierdzi, że może to być problem w bliskiej przyszłości, biorąc pod uwagę szybki postęp modeli AI i miliardy dolarów inwestowane przez Dolinę Krzemową w dalsze ich doskonalenie. Nawet dla sceptyków takich katastroficznych scenariuszy, istnieją mocne argumenty, sugerujące, że niewłaściwe zachowanie Groka znacząco pogarsza jakość produktów, które obecnie zasila.

W tym tygodniu Grok szerzył antysemityzm na platformie X, zaledwie kilka tygodni po tym, jak chatbot wielokrotnie wspominał o „białej zagładzie” w rozmowach z użytkownikami. Musk wskazał, że Grok zostanie wkrótce zintegrowany z pojazdami Tesla, a xAI próbuje sprzedawać swoje modele AI Pentagonowi i innym przedsiębiorstwom. Trudno sobie wyobrazić, że osoby prowadzące samochody Muska, pracownicy federalni chroniący USA, czy pracownicy przedsiębiorstw automatyzujący zadania, będą bardziej otwarci na tego typu niewłaściwe zachowania niż użytkownicy X. Kilku badaczy argumentuje, że testy bezpieczeństwa i zgodności AI nie tylko zapobiegają najgorszym scenariuszom, ale także chronią przed krótkoterminowymi problemami behawioralnymi. Co najmniej, incydenty z Grokiem mają tendencję do przyćmiewania szybkiego postępu xAI w rozwoju modeli AI, które przewyższają technologię OpenAI i Google, zaledwie kilka lat po założeniu startupu.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *