Bezpieczeństwo

Koktajle Mołotowa i widmo neoluddystów: brutalna radykalizacja przeciwników AI

Kiedy pod bramę posiadłości Sama Altmana poleciał ładunek zapalający, branża technologiczna zrozumiała, że etap teoretycznych debat o bezpieczeństwie właśnie się skończył. Daniel Moreno-Gama, 20-latek zafascynowany mrocznymi zakątkami internetu, nie ograniczył się do postowania manifestów; spróbował sforsować wejście do OpenAI z krzesłem w ręku i listą celów w kieszeni.

To nie był odosobniony akt szaleństwa, lecz symptom głębszej patologii.

Od klawiatur do koktajli Mołotowa

W Dolinie Krzemowej termin „doomer” przestał być ironiczną etykietą dla pesymistów. Moreno-Gama, zanim przeszedł do czynów, operował w kręgach takich jak PauseAI czy discordowe fora poświęcone egzystencjalnym zagrożeniom ze strony sztucznej inteligencji. Choć organizacje te oficjalnie odcinają się od przemocy, rykoszetem obrywa cały ruch sceptyków.

Problem w tym, że internetowa radykalizacja karmi się konkretnymi obawami: utratą pracy, degradacją środowiska przez centra danych i utratą kontroli nad definicją człowieczeństwa.

Geografia strachu

  • San Francisco: Atak na dom CEO OpenAI i próba brawurowego włamania do biur firmy.
  • Indianapolis: Strzały oddane w kierunku domu radnego Rona Gibsona po zatwierdzeniu budowy centrum danych.
  • Filadelfia: Systematyczne niszczenie robotów dostawczych i autonomicznych taksówek na ulicach miast.

Mamy do czynienia z asymetryczną wojną podjazdową. To już nie jest krytyka algorytmów – to fizyczny opór przeciwko przyszłości, której nikt nie konsultował z obywatelami.

Kult „Luigiego” i estetyka przemocy

Wątek Moreno-Gamy ujawnia fascynację postacią Luigiego Mangione, oskarżonego o zabójstwo prezesa UnitedHealthcare. W radykalnych zakątkach sieci narasta narracja o „bohaterach”, którzy biorą sprawiedliwość w swoje ręce, uderzając w technokratyczne elity.

To skrajny margines, ale margines, który staje się coraz głośniejszy i bardziej niebezpieczny.

Adwokaci Moreno-Gamy budują linię obrony opartą na kryzysie psychicznym, nazywając incydent „co najwyżej przestępstwem przeciwko mieniu”. Jednak dokumenty znalezione przy sprawcy, zawierające adresy liderów AI i inwestorów, sugerują coś znacznie bardziej wyrachowanego: planowaną kampanię terroru.

OpenAI: Między PR-em a paranoją

Reakcja OpenAI jest dwutorowa i momentami niespójna. Z jednej strony firma apeluje o „demokratyczny proces”, z drugiej jej szef ds. polityki, Chris Lehane, sugeruje, że każda ostra krytyka AI może być nieodpowiedzialną podpałką pod nastroje agresywne. To niebezpieczna retoryka, która próbuje zrównać merytoryczny opór z terroryzmem.

Wewnętrzny rozłam

Nawet wewnątrz OpenAI pojawiają się głosy sprzeciwu wobec tak uproszczonej wizji. Jason Wolfe, inżynier zajmujący się równoważeniem (alignment) modeli, publicznie odciął się od „lania wody” przez dział PR, twierdząc, że wrzucanie wszystkich krytyków do jednego worka z „doomerami” niszczy debatę publiczną.

Prawda jest brutalna: strach przed AI jest autentyczny. Przemoc jest jedynie jego najbardziej wynaturzoną formą, ale próba uciszenia dyskusji poprzez granie kartą bezpieczeństwa tylko doleje oliwy do ognia.

Branża technologiczna musi zrozumieć, że ochrona biur i zdejmowanie identyfikatorów po pracy to tylko środki doraźne. Prawdziwym wyzwaniem jest odzyskanie zaufania społecznego, które zostało podpalone szybciej niż jakikolwiek koktajl Mołotowa.