Wojna o Claude’a: Anthropic kontratakuje Pentagon w procesie o bezpieczeństwo narodowe
Spór między Anthropic a Pentagonem wkroczył w decydującą fazę po złożeniu przez firmę dwóch kluczowych oświadczeń w sądzie federalnym w Kalifornii. Startup, będący twórcą modelu Claude, odpiera zarzuty Departamentu Obrony, jakoby technologia firmy stanowiła „niedopuszczalne ryzyko dla bezpieczeństwa narodowego”. Argumentacja Anthropic uderza w rzekomy brak kompetencji technicznych urzędników oraz w nagłe zmiany narracji, które nastąpiły po tym, jak administracja prezydenta Trumpa ogłosiła zerwanie współpracy.
Polityczne kulisy zerwanych negocjacji
Sarah Heck, szefowa polityki Anthropic i była członkini Rady Bezpieczeństwa Narodowego USA, w swoim oświadczeniu demaskuje niespójności w działaniach Pentagonu. Zwraca uwagę na fakt, że jeszcze na początku marca Emil Michael, podsekretarz obrony, w prywatnej korespondencji uznawał obie strony za „bliskie porozumienia” w kluczowych kwestiach: autonomicznej broni oraz inwigilacji obywateli. Zaledwie tydzień później ten sam urzędnik publicznie ogłosił na platformie X, że żadne rozmowy nie są prowadzone, a w mediach stwierdził, że szanse na ich wznowienie są zerowe.
Heck kategorycznie zaprzecza również informacjom, jakoby Anthropic domagało się prawa do zatwierdzania poszczególnych operacji wojskowych. Według niej, Pentagon nigdy nie podniósł tej kwestii podczas wielomiesięcznych negocjacji, a zarzut ten pojawił się dopiero w dokumentach procesowych. Sugeruje to, że oskarżenia o próbę sprawowania kontroli nad działaniami armii są sfabrykowane na potrzeby uzasadnienia nagłego wpisania firmy na listę podmiotów stwarzających zagrożenie dla łańcucha dostaw.
Mit o „wyłączniku bezpieczeństwa”
Argumentację techniczną uzupełnia Thiyagu Ramasamy, szef sektora publicznego w Anthropic, który wcześniej zarządzał wdrożeniami AI w Amazon Web Services. Ramasamy rozprawia się z teorią, według której firma mogłaby zdalnie sparaliżować systemy wojskowe w trakcie trwania misji. Wskazuje on na fizyczną niemożliwość takiego działania: Claude jest wdrażany w tzw. środowiskach air-gapped, czyli odizolowanych od internetu systemach kontrolowanych przez zewnętrznych wykonawców rządowych.
W takiej architekturze Anthropic nie posiada tylnych drzwi (backdoors) ani mechanizmu zdalnej aktualizacji. Jakakolwiek zmiana w modelu musiałaby zostać zatwierdzona i fizycznie zainstalowana przez personel Pentagonu. Twierdzenia o „operacyjnym wecie” startupu wydają się więc nie mieć oparcia w rzeczywistości inżynieryjnej, podobnie jak obawy o wycieki danych – firma nie ma nawet wglądu w zapytania wprowadzane przez użytkowników wojskowych.
Odwet za zasady etyczne?
Poważnym punktem zapalnym jest kwestia zatrudniania obcokrajowców, co Pentagon uznał za deficyt bezpieczeństwa. Anthropic broni się, wskazując, że ich pracownicy przeszli te same procedury weryfikacyjne (security clearance), co personel rządowy mający dostęp do informacji niejawnych. Firma twierdzi wręcz, że jest jedynym graczem na rynku AI, którego modele przeznaczone dla systemów tajnych były budowane przez osoby z poświadczeniami bezpieczeństwa.
Istota pozwu Anthropic sprowadza się do oskarżenia o naruszenie Pierwszej Poprawki. Firma argumentuje, że uznanie jej za zagrożenie dla bezpieczeństwa to w istocie kara za publiczne głoszenie poglądów na temat bezpiecznego rozwoju AI i odmowę zgody na nieograniczone wykorzystanie jej technologii do celów ofensywnych. Rząd USA ripostuje, że odmowa realizacji wymogów wojskowych to decyzja biznesowa, a nie wolność słowa, co czyni wtorkowe przesłuchanie przed sędzią Ritą Lin jednym z najważniejszych starć na linii Dolina Krzemowa – Waszyngton w tej dekadzie.
