Algorytmy w Watchtower: ślepa przemoc w służbie Big Tech
Ciemność wewnątrz algorytmu
W Strefie Gazy narodziła się nowa forma wojny, w której decyzje o życiu i śmierci podejmuje procedura, a nie człowiek. Izraelska armia od lat stosuje nieoficjalną zasadę zwaną „fog procedure” – polecenie strzelania w mrok przy ograniczonej widoczności, by odstraszyć niewidoczne zagrożenie. Dziś ten mrok został zaklęty w kodzie.
To przemoc licencjonowana przez ślepotę.
Systemy sztucznej inteligencji, przetwarzając miliardy punktów danych, generują listy domniemanych bojowników z prędkością, której żaden analityk nie jest w stanie zweryfikować. W pierwszych tygodniach wojny jeden z nich wytypował 37 tysięcy celów. Człowiek w tym procesie stał się jedynie figurantem, poświęcającym średnio 20 sekund na zatwierdzenie imienia i nazwiska. To nie jest inteligentna wojna; to automatyzacja niedokładności.
Gaza jako laboratorium, Minab jako rynek
Tragedia w szkole podstawowej Shajareh Tayyebeh w Minab w południowym Iranie jest brutalnym dowodem na to, co dzieje się, gdy dane wejściowe są przestarzałe, a algorytm nieomylny w swojej egzekucji. Zginęło co najmniej 168 osób, głównie dziewczynek w wieku od 7 do 12 lat. Amunicja była precyzyjna, trafiała punktowo w każdy budynek. Zawiodła inteligencja maszynowa, która uznała szkołę za bazę wojskową, ignorując fakt, że obiekt zmienił przeznaczenie dekadę temu.
Gdy błąd algorytmu staje się akceptowalnym kosztem operacyjnym, przestajemy mówić o technologii, a zaczynamy o zbrodniach wpisanych w projekt systemu.
Architekci decyzji
- Palantir: dostarcza infrastrukturę sztucznej inteligencji integrującą modele językowe do identyfikacji celów.
- Google i Amazon: Projekt Nimbus zapewnia moce obliczeniowe dla izraelskiego sektora obronnego.
- OpenAI: po cichu usunęło zakaz militarnych zastosowań swoich modeli na początku 2024 roku.
Te firmy nie są już neutralnymi dostawcami chmury. To kontraktorzy obronni nowej generacji, których inżynierowie posiadają certyfikaty bezpieczeństwa, a systemy znajdują się w samym centrum „łańcucha zabijania” (kill chain).
Strukturalny brak odpowiedzialności
Największym sukcesem Big Techu nie jest skuteczność ich sztucznej inteligencji, ale stworzenie architektury nieodpowiedzialności. W tradycyjnym konflikcie dowódca musi podjąć próbę weryfikacji celu zgodnie z prawem międzynarodowym. W wojnie algorytmicznej odpowiedzialność rozmywa się między inżynierem z Palo Alto, dowódcą wydającym rozkaz i operatorem, który ma 20 sekund na kliknięcie „zatwierdź”.
Rozumowanie maszyny znika wewnątrz wyniku prawdopodobieństwa, którego żaden prawnik nie jest w stanie audytować.
Regulacyjna iluzja
Unijny AI Act, szumnie zapowiadany jako najbardziej rygorystyczne prawo na świecie, zawiera krytyczną lukę: nie dotyczy zastosowań wojskowych. To klasyczna pętla logiczna. Ciało prawne, które powinno hamować ekscesy sztucznej inteligencji, odsyła do prawa humanitarnego, które z kolei jest systematycznie niszczone przez nieprzejrzystość tych samych systemów.
Jeśli nie wymusimy na dostawcach sztucznej inteligencji pełnej transparentności procesów decyzyjnych oraz łańcucha odpowiedzialności karnej, Minab nie będzie ostatnim tragicznie „precyzyjnym” błędem. Ciemność po prostu zyskała lepszy sprzęt.
