Obronność

Koniec bezpiecznej bańki Anthropic. Pentagon dociska twórców Claude AI

Wojna o kody źródłowe Claude

Pentagon nie uznaje kompromisów, gdy w grę wchodzi przewaga operacyjna. Decyzja sądu apelacyjnego w Waszyngtonie, która utrzymała status Anthropic jako zagrożenia dla bezpieczeństwa, to brutalne uderzenie w model biznesowy firmy oparty na rzekomej etyce. Sekretarz obrony Pete Hegseth oraz administracja Donalda Trumpa postawili sprawę jasno: albo sztuczna inteligencja będzie działać bez blokad na potrzeby armii, albo w ogóle nie znajdzie się w federalnym ekosystemie.

Spór eskalował w momencie, gdy Anthropic odmówiło usunięcia wbudowanych zabezpieczeń (safety rails) ze swoich modeli. To, co dla firmy jest „etyczną barierą”, dla rządu stanowi ryzyko sabotażu lub awarii w krytycznym momencie operacji militarnej.

Konstytucja kontra Pentagon

Prawnicy Anthropic grają va banque, wyciągając najcięższe działa: Pierwszą Poprawkę. Twierdzą, że kod ich sztucznej inteligencji jest formą chronionej wypowiedzi, a działania rządu to odwet za poglądy na temat bezpieczeństwa technologii. To ryzykowna strategia w starciu z argumentem o „gotowości militarnej”.

Todd Blanche, pełniący obowiązki prokuratora generalnego, nie pozostawia złudzeń co do hierarchii władzy.

„Władza wojskowa i kontrola operacyjna należą do Naczelnego Dowódcy, a nie do firmy technologicznej” – to zdanie Blanche’a definiuje nową erę relacji między państwem a Big Tech. Jeśli model sztucznej inteligencji ma być zintegrowany z systemami obronnymi, Pentagon żąda pełnego i nieograniczonego dostępu.

Czarna lista staje się realna

Obecna porażka w Waszyngtonie to tylko połowa obrazu. Równolegle toczy się proces w Kalifornii, gdzie sędziowie dotychczas patrzyli na startup łaskawszym okiem. Jednak waszyngtoński wyrok otwiera drogę do wpisania Anthropic na oficjalną „czarną listę”, co odcięłoby firmę od miliardowych kontraktów nie tylko w wojsku, ale w całej administracji cywilnej.

  • Ryzyko reputacyjne: Etykieta „zagrożenia dla łańcucha dostaw” odstrasza klientów korporacyjnych.
  • Dualizm prawny: Przeciwstawne decyzje sądów w D.C. i Kalifornii prowadzą sprawę prosto przed Sąd Najwyższy.
  • Utrata przewagi: Wykluczenie z Pentagonu to wolne miejsce dla OpenAI lub Google.

Rząd federalny argumentuje, że odmowa zniesienia blokad przez Anthropic powoduje „niedopuszczalną niepewność”. W świecie technologii wojskowych model, który może odmówić wykonania zadania z powodów „etycznych”, jest uważany za uszkodzony sprzęt.

Hakerski paradoks

Ironią losu jest fakt, że ta sama technologia, którą rząd nazywa zagrożeniem, jest jednocześnie opisywana jako idealne narzędzie dla hakerów. Administracja chce mieć Claude pod pełną kontrolą właśnie dlatego, że jest zbyt potężny, by pozostawał w rękach firmy, która odmawia państwu kluczy do swojego sejfu.

To precedens: pierwszy raz w historii amerykańska firma technologiczna została formalnie uznana za zagrożenie dla systemów wojskowych na równi z zagranicznymi podmiotami o wrogim nastawieniu.