Starcia o cyfrowe sumienie: Pentagon kontra Anthropic w sporze o rolę AI w wojnie
Administracja Donalda Trumpa postawiła sprawę jasno: w systemach bezpieczeństwa narodowego nie ma miejsca na modele językowe, których twórcy zastrzegają sobie prawo do zdalnego decydowania o tym, co wolno, a czego nie wolno żołnierzowi. We wtorkowym wniosku procesowym Departament Sprawiedliwości (DOJ) stanął w obronie decyzji Pentagonu o nałożeniu na firmę Anthropic etykiety „ryzyka w łańcuchu dostaw”. To narzędzie prawne, które może skutecznie wykluczyć start-up z lukratywnego rynku kontraktów obronnych, wartych potencjalnie miliardy dolarów.
Podejrzenie o potencjalny sabotaż
Istotą konfliktu nie są błędy w kodzie, lecz ideologiczne i etyczne „czerwone linie” nakreślone przez Anthropic. Firma konsekwentnie twierdzi, że jej model AI, Claude, nie powinien być wykorzystywany do masowej inwigilacji obywateli USA ani sterowania autonomiczną bronią, dopóki technologia nie stanie się w pełni bezpieczna. Rząd interpretuje tę postawę nie jako troskę o etykę, lecz jako zapowiedź możliwego sabotażu.
Prawnicy DOJ argumentują, że sekretarz obrony Pete Hegseth słusznie uznał zachowanie firmy za nieprzewidywalne. W dokumentach sądowych czytamy, że Pentagon obawia się scenariusza, w którym personel Anthropic celowo ogranicza funkcjonalność systemu lub zmienia jego zachowanie w trakcie trwania operacji bojowych, jeśli tylko uzna, że jego korporacyjne zasady etyczne zostały naruszone. Z punktu widzenia wojska taki kontrahent stał się „nieposłusznym ogniwem”, któremu nie można powierzyć infrastruktury krytycznej.
Pierwsza Poprawka jako tarcza
Anthropic próbuje walczyć w sądzie, twierdząc, że sankcje nałożone przez rząd naruszają Pierwszą Poprawkę do Konstytucji USA. Spółka argumentuje, że ograniczenia narzucone przez Pentagon są formą odwetu za ich ekspresję ideologiczną. Departament Sprawiedliwości odrzuca tę narrację jako „radykalną”, podkreślając, że wolność słowa nie daje prywatnej korporacji licencji na jednostronne narzucanie warunków kontraktowych państwu.
Sytuacja jest o tyle paląca, że obecnie Claude jest jedynym modelem AI dopuszczonym do pracy w systemach niejawnych, między innymi poprzez oprogramowanie firmy Palantir. Wojsko nie może jednak „po prostu wyłączyć przełącznika” w trakcie trwających operacji o wysokiej intensywności. Dlatego Departament Obrony już teraz pracuje nad alternatywami, zapraszając do współpracy Google, OpenAI oraz należące do Elona Muska xAI, które mają zastąpić rozwiązania Anthropic w ciągu najbliższych miesięcy.
Szerokie wsparcie branży
Mimo twardego stanowiska rządu Anthropic nie jest w tej walce odosobniony. Do sądu wpłynęły już liczne opinie popierające start-up, podpisane między innymi przez Microsoft, związki zawodowe pracowników federalnych oraz emerytowanych dowódców wojskowych. Co istotne, po stronie rządu nie opowiedziała się dotąd żadna zewnętrzna organizacja.
Najbliższa rozprawa, zaplanowana na wtorek w San Francisco, zadecyduje o tym, czy Anthropic będzie mógł kontynuować współpracę z Pentagonem do czasu ostatecznego rozstrzygnięcia sporu. Jeśli sędzia Rita Lin nie przychyli się do wniosku firmy, Anthropic może stanąć w obliczu gigantycznej luki w tegorocznym budżecie i trwałego wykluczenia z sektora bezpieczeństwa państwa.
