Anthropic w prawnym klinczu. Spór o bezpieczeństwo narodowe paraliżuje dostawy AI dla wojska
Amerykański system sądowniczy znalazł się w impasie, który bezpośrednio uderza w jeden z najbardziej obiecujących startupów AI na świecie. Sąd apelacyjny w Waszyngtonie orzekł w środę, że Anthropic nie spełnił rygorystycznych wymogów niezbędnych do tymczasowego zniesienia statusu „zagrożenia dla łańcucha dostaw”. Decyzja ta stoi w jaskrawej sprzeczności z marcowym wyrokiem sądu niższej instancji w San Francisco, tworząc prawny i operacyjny chaos wokół modelu Claude.
Polityka bezpieczeństwa kontra autonomia technologiczna
Spór ma głębokie podłoże ideologiczne i techniczne. Pentagon, pod wodzą obecnej administracji, nałożył na Anthropic sankcje w oparciu o przepisy zazwyczaj rezerwowane dla wrogich podmiotów zagranicznych. Powodem nie są jednak powiązania z obcymi mocarstwami, lecz opór firmy przed nieograniczonym wykorzystaniem jej narzędzi przez wojsko. Anthropic argumentuje, że model Claude nie posiada wystarczającej precyzji do prowadzenia operacji o krytycznym znaczeniu, takich jak autonomiczne ataki dronów bez nadzoru człowieka. Dla Pentagonu takie stanowisko to niedopuszczalna niesubordynacja kontrahenta.
Sędziowie z Waszyngtonu uznali, że wstrzymanie decyzji Pentagonu zmusiłoby armię do współpracy z „niechcianym dostawcą” w samym środku istotnych konfliktów zbrojnych. Choć przyznano, że Anthropic ponosi ogromne straty finansowe i wizerunkowe, interes narodowy i autonomia decyzji militarnych przeważyły nad interesem korporacji. To bezprecedensowy przypadek, w którym amerykańska firma technologiczna traktowana jest przez własny rząd niemal jak ciało obce.
Zarzuty o złą wolę i walka o kontrolę
Wcześniejsze orzeczenie z San Francisco rzuca zupełnie inne światło na sprawę. Tamtejszy sędzia wskazał, że Departament Obrony mógł działać w złej wierze, kierując się frustracją z powodu ograniczeń etycznych, jakie Anthropic nakłada na swoje oprogramowanie. Administracja Trumpa, choć początkowo zastosowała się do nakazu przywrócenia dostępu do narzędzi firmy, kontynuuje batalię o pełną kontrolę operacyjną.
Głos w sprawie zabrał p.o. Prokuratora Generalnego, Todd Blanche, stwierdzając dosadnie, że gotowość bojowa armii wymaga pełnego dostępu do modeli AI zintegrowanych z systemami wrażliwymi. „Władza wojskowa należy do Naczelnego Dowódcy, a nie do firmy technologicznej” – napisał Blanche na platformie X. To jasny sygnał, że rząd nie zamierza tolerować „etycznych barier” stawianych przez twórców oprogramowania, jeśli te stoją w poprzek potrzebom frontowym.
Chłodny klimat dla innowacji
Eksperci ostrzegają, że działania Pentagonu mogą wywołać tzw. mrożący efekt w całej branży. Jeśli każda próba rzetelnej oceny wydajności systemu AI przez jego twórców będzie kończyć się wpisaniem na czarną listę, dialog techniczny ustąpi miejsca czystemu konformizmowi. Anthropic stał się poligonem doświadczalnym dla nowych relacji na linii Dolina Krzemowa – Waszyngton, w których autonomia deweloperów jest drastycznie ograniczana.
Obecnie wojsko, nazywane przez prezydenta Trumpa Departamentem Wojny, przygotowuje się do uniezależnienia od rozwiązań Anthropic, migrując część zasobów do systemów konkurencji, takich jak OpenAI czy Google DeepMind. Ostateczne rozstrzygnięcia sądowe mogą zapaść dopiero za kilka miesięcy, a najbliższe przesłuchania zaplanowano na połowę maja. Do tego czasu Anthropic pozostaje w sferze zawieszenia, tracąc kluczowe kontrakty rządowe i walcząc o odzyskanie zaufania na rynku, który coraz silniej splata się z brutalną polityką bezpieczeństwa państwa.
