Algorytm śmierci nad Teheranem: pierwsza wielka wojna AI stała się faktem
Tysiąc celów w 24 godziny. To statystyka, która powinna mrozić krew każdemu analitykowi wojskowemu. Podczas gdy inwazja na Irak z 2003 roku opierała się na brutalnej sile ognia, dzisiejszy atak na Iran to chirurgiczna precyzja napędzana przez uczenie maszynowe i krzemową logikę Doliny Krzemowej.
Jesteśmy świadkami narodzin „wojny algorytmicznej” na skalę, jakiej świat jeszcze nie widział.
Turboładowanie łańcucha zabijania
Admirał Brad Cooper, szef Dowództwa Centralnego USA, nie owija w bawełnę: AI nie jest już tylko wsparciem, jest fundamentem. Kluczowym terminem jest tutaj łańcuch zabijania (Kill Chain) – proces namierzania, identyfikacji i eliminacji celu. Dzięki sztucznej inteligencji to, co kiedyś zajmowało sztabom godziny, dziś trwa sekundy.
Pentagon przestał polegać wyłącznie na tradycyjnych gigantach zbrojeniowych, takich jak Lockheed Martin. Teraz na polu bitwy królują:
- Maven Smart System – zintegrowany z modelami językowymi od Anthropic.
- Infrastruktura chmurowa od AWS i Google.
- Algorytmy rozpoznawania obrazu, pierwotnie projektowane do katalogowania sukien ślubnych.
Konfrontacja z etyką Big Tech
Relacja między Pentagonem a twórcami AI przypomina jednak toksyczne małżeństwo. Kiedy firma Anthropic próbowała postawić granice dotyczące masowej inwigilacji, administracja Donalda Trumpa zareagowała bezlitośnie. Pentagon uznał spółkę za „ryzyko dla łańcucha dostaw”, sugerując, że inżynierowie mogą sabotować systemy narodowe.
To pokazuje nowy układ sił: rząd USA nie chce już prosić o współpracę. On jej żąda, traktując kod źródłowy jak amunicję.
Kto odpowie za błędy krzemu?
Teoria o „chirurgicznej precyzji” AI legła w gruzach już pierwszego dnia, gdy amerykański Tomahawk uderzył w szkołę dla dziewcząt w Minab. Zginęło 170 osób, głównie dzieci. Czy to był błąd nieaktualnych danych wywiadowczych, czy może algorytm Maven błędnie zaklasyfikował placówkę jako cel militarny?
Pojawia się fundamentalne pytanie o odpowiedzialność moralną. Jeśli decyzja o ataku zostaje „przemielona” przez AI w sekundę, to czy człowiek w pętli decyzyjnej jest jeszcze sędzią, czy tylko notariuszem zatwierdzającym wyroki maszyny?
Dziedzictwo w cieniu dronów
Obok ofiar ludzkich, wojna AI pustoszy kulturę. Systemy naprowadzania, choć zaawansowane, nie biorą pod uwagę fizyki drgań. Uderzenie bombowe pół mili od Pałacu Golestan – zabytku UNESCO – niszczy go skuteczniej niż bezpośredni atak na nowoczesny budynek. Zabytki z XV wieku nie są projektowane pod wstrząsy generowane przez algorytmicznie planowane serie nalotów.
Bracia technologii idą na wojnę – to już nie jest metafora z konferencji w San Francisco. To rzeczywistość portfela Pentagonu, który oferuje 100 milionów dolarów za stworzenie autonomicznych rojów dronów sterowanych głosem.
Mamy do czynienia z nowym kompleksem militarno-technologicznym. W tej grze stawką nie jest już tylko terytorium, ale dominacja nad danymi, które decydują o życiu i śmierci w czasie rzeczywistym. Pytanie nie brzmi już, czy AI będzie zabijać, ale kogo wskaże jako następnego, gdy człowiek mrugnie okiem.
