BezpieczeństwoEtyka AI

Firmy AI pędzą po superinteligencję bez planu B. Nowy raport bije na alarm

Sztuczna inteligencja rozwija się w błyskawicznym tempie, ale czy idzie za tym odpowiednie bezpieczeństwo? Nowy raport „Winter AI Safety Index 2025”, opublikowany przez organizację Future of Life Institute (FLI), rzuca cień na ośmiu gigantów branży AI, w tym OpenAI, Google DeepMind i Meta.

Brak solidnych planów i pogoń za superinteligencją

Według autorów raportu, największe firmy rozwijające AI nie spełniają własnych deklaracji dotyczących bezpieczeństwa. To zaniedbanie niesie ze sobą „katastrofalne ryzyko”, zwłaszcza w kontekście trwającej pogoni za stworzeniem sztucznej inteligencji ogólnej (AGI) oraz superinteligencji – systemów, które przewyższą ludzki intelekt.

Obawy te narastają w obliczu doniesień o szkodliwym wykorzystaniu chatbotów, w tym rzekomym działaniu jako „suicide coach”, oraz cyberataków wspieranych przez AI. Niezależni analitycy podkreślają, że żadna z ocenianych firm nie przedstawiła weryfikowalnego planu, jak utrzymać ludzką kontrolę nad zaawansowanymi systemami sztucznej inteligencji.

Profesor Stuart Russell z Uniwersytetu Kalifornijskiego w Berkeley porównuje to do wymagań stawianych reaktorom jądrowym. „Szukam dowodu, że potrafią ograniczyć roczne ryzyko utraty kontroli do jednego na sto milionów, zgodnie z wymogami dla reaktorów jądrowych” – mówi Russell. „Tymczasem przyznają, że ryzyko może wynosić jeden na dziesięć, jeden na pięć, nawet jeden na trzy. I nie potrafią tych liczb ani uzasadnić, ani poprawić.”

Ocena firm: blaski i cienie

Raport oceniał firmy w sześciu kluczowych obszarach: ocena ryzyka, obecne szkody, ramy bezpieczeństwa, bezpieczeństwo egzystencjalne, zarządzanie i odpowiedzialność oraz wymiana informacji. Choć w niektórych kategoriach odnotowano pewne postępy, to ogólna ocena niezależnych ekspertów jest krytyczna – wdrożenia są niespójne, a głębia działań często niewystarczająca wobec rosnących globalnych standardów.

Liderzy tacy jak Anthropic, OpenAI i Google DeepMind zostali docenieni za względną przejrzystość i inwestycje w badania nad bezpieczeństwem technicznym. Niemniej jednak, u każdego z nich wskazano na poważne braki. Anthropic skrytykowano za przerwanie prób „human uplift” (rozwoju AI poprzez interakcje ludzkie), co osłabia ochronę prywatności. OpenAI zarzucono niejasne progi bezpieczeństwa, działania lobbingowe przeciwko prawodawstwu w zakresie bezpieczeństwa AI oraz niedostateczny niezależny nadzór. Google DeepMind poprawił swoje ramy bezpieczeństwa, ale nadal opiera się na zewnętrznych ewaluatorach wynagradzanych przez firmę, co podważa ich niezależność. Max Tegmark, prezes FLI i profesor MIT, wskazuje, że wszystkie trzy firmy doświadczyły już „obecnych szkód” – od problemów psychicznych i samobójstw dzieci, po masowe ataki hakerskie, co pokazuje, że jest wiele do poprawy.

Pozostałe firmy – Meta, Alibaba Cloud, DeepSeek, xAI i Z.ai – również wykazują nierówny postęp. xAI opublikowało swoje pierwsze ramy bezpieczeństwa, ale recenzenci uznali je za zbyt wąskie. Z.ai jako jedyna pozwoliła na nieocenzurowaną publikację zewnętrznych ocen bezpieczeństwa, ale musi jeszcze upublicznić pełniejsze informacje o zarządzaniu ryzykiem. Meta wprowadziła nowe ramy bezpieczeństwa dla zaawansowanych modeli, ale potrzebuje doprecyzowania metodyk. Alibaba Cloud wnosi wkład w krajowe standardy, ale musi poprawić odporność i wiarygodność modeli. DeepSeek doceniono za wewnętrzną dyskusję na temat bezpieczeństwa, choć wciąż brakuje podstawowej dokumentacji.

Regulacje gorsze niż dla kanapek i pogoń za hasłem „superinteligencja”

Krytyka raportu wykracza poza szczegółowe oceny firm. Max Tegmark ubolewa nad brakiem wiarygodnych planów na utrzymanie kontroli nad AGI. Dodatkowo zwraca uwagę, że firmy takie jak Meta używają terminu „superinteligencja” jako chwytliwego hasła marketingowego, aby podbić zainteresowanie swoimi nowymi modelami AI.

Tegmark alarmuje, że regulacje dotyczące AI w USA są „mniej rygorystyczne niż te dla kanapek”, a jednocześnie trwa intensywny lobbing przeciwko wiążącym standardom bezpieczeństwa. To paradoksalne w sytuacji, gdy jeszcze niedawno AGI i superinteligencja były postrzegane jako odległa przyszłość, a dziś mówi się o niej w perspektywie kilku lat.

Mimo tych wyzwań, Tegmark dostrzega bezprecedensowy sprzeciw wobec braku kontroli nad AGI i superinteligencją. Petycja organizowana przez FLI, wzywająca firmy AI do spowolnienia tej pogoni, zebrała podpisy od tysięcy osób publicznych z różnych środowisk politycznych i społecznych, w tym liderów AI, polityków i duchownych. Jednym z łączących argumentów jest obawa przed masową utratą miejsc pracy i uzależnieniem ludzi od państwowych zasiłków, co budzi sprzeciw zarówno wśród prawicy, jak i lewicy. „Sytuacja dochodzi do przesilenia” – konkluduje Tegmark.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *