Etyka AIObronność

Wojna o zasady: Anthropic i Pentagon w sporze o granice militarnej AI

Relacja między Doliną Krzemową a sektorem obronnym USA staje się coraz bardziej napięta. U progu negocjacji kontraktu opiewającego na 200 milionów dolarów, startup Anthropic — pozycjonujący się jako „bezpieczniejsza alternatywa” dla konkurencji — zderzył się z bezkompromisową polityką Pentagonu. Kością niezgody są bariery ochronne, które mają uniemożliwić wykorzystanie sztucznej inteligencji do działań wykraczających poza demokratyczny standard etyczny.

Przeszkoda warta 200 milionów

Jak donosi Reuters, Anthropic domaga się twardych zabezpieczeń prawnych i technicznych. Firma chce mieć pewność, że jej narzędzia nie przejmą kontroli nad systemami uzbrojenia bez nadzoru człowieka (tzw. human-in-the-loop) oraz nie posłużą do inwigilacji amerykańskich obywateli. Postawa ta wynika bezpośrednio z filozofii firmy, która od początku kładzie nacisk na bezpieczeństwo modeli i ich zgodność z wartościami konstytucyjnymi.

Pentagon jednak nie zamierza godzić się na dyktando dostawcy. Zgodnie z memorandum z 9 stycznia, departament (nazywany przez administrację Trumpa „Departamentem Wojny”) utrzymuje, że może korzystać z komercyjnych rozwiązań AI niezależnie od wewnętrznych regulacji producentów, o ile tylko ich działanie mieści się w granicach amerykańskiego prawa. To podejście stawia pod znakiem zapytania dotychczasowy model współpracy Big Tech z wojskiem, w którym firmy technologiczne zachowywały pewien wpływ na sposób eksploatacji ich własności intelektualnej.

Granica między obronnością a autokracją

Dario Amodei, dyrektor generalny Anthropic, w swoim najnowszym wpisie ostrzegł, że AI powinna wspierać obronność we wszystkich aspektach, „z wyjątkiem tych, które upodobniłyby nas do naszych autokratycznych przeciwników”. Obawy inżynierów z San Francisco nie są czysto teoretyczne. Atmosferę zagęściły ostatnie tragiczne wydarzenia w Minneapolis, gdzie podczas protestów przeciwko działaniom służb imigracyjnych (ICE) doszło do użycia broni palnej wobec cywilów.

Sytuację komplikuje fakt, że Anthropic współpracuje z Palantirem — firmą, która bezpośrednio wspiera technologiczną infrastrukturę ICE. Dla szefa Anthropic tragiczne incydenty z udziałem służb państwowych są dowodem na to, że bez ścisłego nadzoru nad AI, narzędzia te mogą stać się instrumentem opresji wewnętrznej.

Problem technicznej adaptacji

Spór ma wymiar nie tylko ideologiczny, ale i techniczny. Modele Anthropic są fabrycznie „trenowane do odmowy” w sytuacjach, które algorytm uzna za groźne lub nieetyczne. Oznacza to, że bez aktywnej pomocy twórców i ich zgody na modyfikację kodu, wojsko może mieć trudności z pełnym wykorzystaniem potencjału tej konkretnej technologii w specyficznych misjach bojowych.

Dla Anthropic czas nie jest sprzymierzeńcem. Firma intensywnie przygotowuje się do debiutu giełdowego (IPO) i zainwestowała ogromny kapitał w rozwój działu bezpieczeństwa narodowego. Pat decyzyjny w rozmowach z Pentagonem może rzucić cień na te przygotowania, zmuszając zarząd do wyboru między lukratywnym kontraktem a wizerunkiem strażnika etycznej sztucznej inteligencji.