Etyka AI

Etyka staje się towarem eksportowym: Londyn przejmuje Anthropic po konflikcie z Pentagonem

Rozłam na linii Dolina Krzemowa – Waszyngton

Spór między Anthropic a amerykańskim Departamentem Obrony to nie tylko prawna batalia o jeden kontrakt, ale fundamentalny konflikt o granice autonomii firm technologicznych. Wszystko zaczęło się od ultimatum, jakie sekretarz obrony Pete Hegseth postawił Dario Amodeiemu: Anthropic miało usunąć bariery bezpieczeństwa („guardrails”) uniemożliwiające wykorzystanie modelu Claude w systemach w pełni autonomicznej broni oraz masowej inwigilacji krajowej. Amodei, budujący tożsamość firmy na fundamencie etyki, odmówił, argumentując, że militarne nadużycia AI uderzają w wartości demokratyczne.

Reakcja administracji USA była bezprecedensowa i gwałtowna. Firmę, która dotychczas była postrzegana jako duma amerykańskiego sektora technologicznego, potraktowano jak podmiot wrogi. Zerwano kontrakt o wartości 200 milionów dolarów, a Pentagon nadał Anthropic status „ryzyka w łańcuchu dostaw” – etykietę zwykle rezerwowaną dla takich gigantów jak chińskie Huawei. W praktyce oznacza to niemal całkowite odcięcie od federalnych funduszy i naciski na sektor prywatny, by porzucił współpracę z twórcami Claude’a.

Londyn: Bezpieczna przystań dla zasad

Podczas gdy Waszyngton stosuje politykę kary, brytyjski rząd Keira Starmera dostrzegł szansę na cyniczne, ale strategiczne przejęcie inicjatywy. Londyński Departament Nauki, Innowacji i Technologii (DSIT) przygotował już ofertę dla wycenianego na 380 miliardów dolarów startupu. Plany obejmują nie tylko wsparcie przy rozszerzeniu biur w brytyjskiej stolicy, ale nawet propozycję podwójnego notowania na londyńskiej giełdzie, co mogłoby zapewnić Anthropic dopływ europejskiego kapitału w momencie, gdy jego status prawny w USA jest niepewny.

Brytyjska strategia opiera się na prostym założeniu: to, co Amerykanie uznali za przeszkodę, dla Wielkiej Brytanii jest atutem. Londyn pozycjonuje się jako trzecia droga między „dzikim zachodem” USA a rygorystycznymi, często dławiącymi innowację regulacjami Unii Europejskiej. Brytyjczycy nie chcą, aby Anthropic porzucało swoje zasady etyczne – wręcz przeciwnie, chcą uczynić z nich fundament lokalnego ekosystemu AI.

Sądowa bitwa o definicję bezpieczeństwa

Choć sprawa obecnie toczy się przed amerykańskim sądem apelacyjnym, pierwsze starcia sugerują, że Pentagon mógł przekroczyć swoje uprawnienia. Sędzia Rita Lin uznała działania rządu za „niepokojące” i prawdopodobnie naruszające prawo, wydając tymczasowe zabezpieczenie blokujące czarną listę. Dla Anthropic walka o Claude’a to walka o utrzymanie kontroli nad tym, by technologia nie stała się narzędziem bez nadzoru człowieka (tzw. human-in-the-loop).

Wielka Brytania gra o wysoką stawkę. Mając już na swoim podwórku Google DeepMind i europejskie centrum badawcze OpenAI, Londyn desperacko potrzebuje kolejnego giganta, by zrekompensować brak silnego, rodzimego gracza klasy „frontier AI”. Spotkanie Dario Amodeiego z brytyjskimi urzędnikami, zaplanowane na koniec maja, może okazać się momentem zwrotnym, w którym środek ciężkości rozwoju etycznej sztucznej inteligencji zacznie przesuwać się w stronę Europy.