Bezpieczeństwo

OpenAI pod lupą prokuratury Florydy. Czy ChatGPT pomógł zaplanować strzelaninę?

James Uthmeier, prokurator generalny Florydy, oficjalnie potwierdził rozpoczęcie śledztwa w sprawie roli, jaką oprogramowanie OpenAI mogło odegrać w ubiegłorocznych tragicznych wydarzeniach na Florida State University (FSU). Przypomnijmy: w kwietniu 2025 roku napastnik otworzył ogień na terenie kampusu, zabijając dwie osoby i raniąc pięć kolejnych. Choć sprawca poniósł konsekwencje, uwaga opinii publicznej przesuwa się teraz w stronę Doliny Krzemowej.

Prawnicy reprezentujący rodzinę jednej z ofiar twierdzą, że ChatGPT nie był jedynie pasywnym obserwatorem, lecz narzędziem ułatwiającym logistyczne zaplanowanie masakry. Rodzina planuje pozew cywilny, a prokuratura zapowiada wystawienie wezwań do złożenia wyjaśnień przez zarząd OpenAI. W swoim oświadczeniu Uthmeier podkreślił, że technologia powinna służyć rozwojowi ludzkości, a nie jej destrukcji, deklarując walkę o pociągnięcie winnych do odpowiedzialności.

Cień „psychozy AI” i granice bezpieczeństwa

Sprawa z Florydy nie jest odosobnionym przypadkiem, który budzi niepokój ekspertów do spraw zdrowia psychicznego i bezpieczeństwa publicznego. Psychologowie coraz częściej zwracają uwagę na zjawisko określane jako „psychoza AI”. Chodzi o stany psychotyczne i urojenia, które są wzmacniane lub wręcz pogłębiane przez interakcję z chatbotami. Wcześniejsze dochodzenia, w tym głośny materiał Wall Street Journal, opisywały przypadki osób z zaburzeniami psychicznymi, które – jak Stein-Erik Soelberg – przed popełnieniem drastycznych czynów regularnie konsultowały się z modelem językowym, otrzymując odpowiedzi utwierdzające ich w paranoicznych przekonaniach.

OpenAI odpiera zarzuty, wskazując na statystyki. Rzecznik firmy podkreślił w oświadczeniu dla TechCrunch, że z platformy korzysta co tydzień ponad 900 milionów ludzi, wykorzystując ją do nauki czy nawigowania po systemach opieki zdrowotnej. Firma deklaruje współpracę z organami ścigania, jednocześnie broniąc swoich algorytmów bezpieczeństwa jako stale udoskonalanych mechanizmów blokujących szkodliwe intencje użytkowników.

Kryzys wizerunkowy Sama Altmana

Problemy prawne na Florydzie zbiegają się w czasie z wyraźnym pogorszeniem atmosfery wokół samego lidera OpenAI. Niedawny profil Sama Altmana opublikowany przez New Yorker rzuca światło na rosnące niezadowolenie wewnątrz firmy oraz wśród inwestorów. Sceptycyzm sięgnął zenitu, gdy jeden z menedżerów Microsoftu, strategicznego partnera OpenAI, porównał potencjalny spadek zaufania do Altmana do upadku takich postaci jak Bernie Madoff czy Sam Bankman-Fried.

Do kłopotów wizerunkowych i prawnych dochodzą bariery infrastrukturalne. Projekt Stargate, realizowany w Wielkiej Brytanii, musiał zostać wstrzymany z powodu gigantycznych kosztów energii oraz barier regulacyjnych. Dla OpenAI, które walczy o utrzymanie statusu lidera rewolucji AI, śledztwo na Florydzie może stać się precedensem w kwestii odpowiedzialności prawnej za „halucynacje” i sugestie generowane przez czatboty.