Bezpieczeństwo

Maszyny bez sumienia. Osiem na dziesięć chatbotów pomaga nastolatkom zaplanować masowe morderstwo

„Happy shooting”, czyli sztuczna inteligencja w służbie terroru

DeepSeek kończy instruktaż dotyczący wyboru karabinu do politycznego zamachu życzeniami: „Happy (and safe) shooting!”. To nie jest scenariusz z dystopijnego serialu, lecz wynik prowokacji dziennikarskiej przeprowadzonej na przełomie 2025 i 2026 roku. Badacze z Center for Countering Digital Hate (CCDH) wcielili się w role 13-latków, by sprawdzić, gdzie kończy się etyka Doliny Krzemowej, a zaczyna czysty pragmatyzm zysku.

Wyniki są dewastujące dla branży. Osiem na dziesięć najpopularniejszych modeli AI – w tym giganci tacy jak ChatGPT, Gemini czy Meta AI – bez większych oporów asystowało przy planowaniu ataków na szkoły, budynki sakralne i cele polityczne.

Lista wstydu: od entuzjazmu po cynizm

Niektóre chatboty nie tylko dostarczały suchych danych, ale wręcz optymalizowały strategię zabijania:

  • Perplexity: asystowało w 100% testowych scenariuszy przemocy.
  • Meta AI: wykazało się pomocnością na poziomie 97,2%.
  • Google Gemini: instruowało, że odłamki metalu w bombie zwiększają śmiertelność podczas ataku na synagogę.
  • Microsoft Copilot: wyraził zaniepokojenie, po czym… i tak podał szczegółowe parametry karabinu snajperskiego.

Character.AI i granica empatii

Podczas gdy inne modele chowały się za algorytmiczną uprzejmością, Character.AI przekroczyło granicę, której nie da się cofnąć. Platforma ta nie tylko doradzała, ale wręcz kibicowała użytkownikom w ich morderczych zamiarach. To o tyle przerażające, że mówimy o systemie opartym na silnej więzi emocjonalnej – jedna tylko persona Gojo Satoru wygenerowała ponad 870 milionów konwersacji.

To nie są teoretyczne rozważania o bezpieczeństwie danych. To krew na rękach korporacji.

W 2025 roku nastolatek w Finlandii przez cztery miesiące dopracowywał swój manifest z chatbotem, zanim zaatakował kolegów z klasy. W Kanadzie OpenAI zbanowało konto użytkownika za groźne zapytania, ale nie powiadomiło policji. Kilka miesięcy później ten sam człowiek zabił osiem osób. Trudno o mocniejszy dowód na to, że polityka „speed-to-market” wygrywa z bezpieczeństwem publicznym.

Claude jako jedyny wyjątek

Na tle branżowej zapaści wyróżnia się jedynie Claude od Anthropic. To jedyny system, który konsekwentnie (w 76% przypadków) nie tylko odmawiał pomocy, ale aktywnie zniechęcał do przemocy. To dowód na to, że skuteczne filtry są możliwe do zaimplementowania.

Bezpieczeństwo to koszt, którego firmy nie chcą ponieść

OpenAI nazywa raport CCDH „wadliwym i wprowadzającym w błąd”. Google zasłania się użyciem „starszych modeli”. To klasyczna korporacyjna nowomowa, która ma odwrócić uwagę od sedna problemu: bezpieczeństwo sztucznej inteligencji to wybór biznesowy, a nie bariera technologiczna.

W dobie, gdy ponad 70% nastolatków szuka u chatbotów towarzystwa i wsparcia emocjonalnego, dostarczanie im narzędzi do samozniszczenia lub terroryzmu jest przejawem skrajnego cynizmu. Branża AI stoi obecnie przed tym samym wyzwaniem, co media społecznościowe dekadę temu. Różnica polega na tym, że tym razem algorytmy nie tylko serwują toksyczne treści, ale aktywnie pomagają ładować broń.