Geopolityka

Claude Mythos demaskuje słabość Europy: System bezpieczeństwa AI wymaga nowej architektury

Kiedy Anthropic ogłosił uruchomienie programu „Project Glasswing”, branża technologiczna wstrzymała oddech. Najnowszy model Claude Mythos Preview nie trafił jednak do powszechnego użytku. Producent zdecydował się na rygorystyczną selekcję, argumentując, że system posiada bezprecedensowe zdolności wykrywania luk w zabezpieczeniach – umiejętności, które w niepowołanych rękach mogą stać się fundamentem dla nowej generacji zautomatyzowanych cyberataków.

Elitarne grono i europejska izolacja

Na liście partnerów wybranych przez Anthropic znalazło się 12 gigantów technologicznych z USA, w tym Microsoft, Amazon i Apple, oraz 40 innych podmiotów o nieujawnionej tożsamości. W tym zamkniętym kręgu niemal całkowicie zabrakło głosu z kontynentalnej Europy. Z analizy kontaktów z ośmioma narodowymi agencjami cyberbezpieczeństwa wynika obraz głębokiej pasywności: jedynie niemieckie BSI potwierdziło nawiązanie dialogu, choć i ono nie otrzymało dotąd możliwości bezpośredniego przetestowania modelu.

Sytuacja ta wywołuje uzasadniony niepokój regulatorów. Claudia Plattner, szefowa BSI, otwarcie stawia pytania o suwerenność technologiczną i bezpieczeństwo narodowe. Jeśli modele o takim potencjale będą kontrolowane wyłącznie przez prywatne korporacje poza Europą, unijne instytucje stracą realną zdolność do oceny ryzyka, zanim zmaterializuje się ono w infrastrukturze krytycznej.

Londyn wygrywa wyścig kompetencji

Kontrast między Brukselą a Londynem jest uderzający. Brytyjski AI Security Institute (AISI) nie tylko uzyskał wgląd w Claude Mythos, ale zdążył już opublikować raport z jego testów. Choć Brytyjczycy przyznają, że nie są w stanie jednoznacznie stwierdzić, czy model przełamie najlepiej chronione systemy, sam fakt przeprowadzenia takich badań stawia ich w pozycji lidera bezpieczeństwa AI.

Dlaczego Wielka Brytania odniosła sukces tam, gdzie UE wciąż błądzi? Odpowiedź kryje się w konstrukcji instytucjonalnej. AISI, dysponujący budżetem rzędu 100 milionów funtów i zatrudniający ekspertów z DeepMind czy OpenAI, operuje na styku nauki i administracji, oferując wynagrodzenia konkurencyjne wobec sektora prywatnego. Tymczasem nowo powstałe Biuro AI przy Komisji Europejskiej zmaga się z paraliżem biurokratycznym, sztywnymi widełkami płacowymi i przedłużającymi się miesiącami procesami rekrutacyjnymi.

Regulacje to nie wszystko

Często podnoszony argument o „nadmiernej regulacji” w UE jako przyczynie niepowodzeń wydaje się w tym przypadku chybiony. Anthropic jest sygnatariuszem unijnego kodeksu praktyk dla modeli ogólnego przeznaczenia, a AI Act teoretycznie daje urzędnikom narzędzia do egzekwowania przejrzystości. Problem leży jednak głębiej – w braku technicznego partnera po stronie publicznej, który byłby dla firm z Doliny Krzemowej realnym partnerem do dyskusji o kodzie źródłowym i architekturze sieci.

Jak zauważa Daniel Privitera z berlińskiego think-tanku KIRA, Claude Mythos to jedynie przedsmak wyzwań, które czekają Europę. Bez własnych mocy obliczeniowych, kapitału wzrostowego i zdolności do szybkiej ewaluacji modeli typu „frontier”, Unia Europejska może zostać zredukowana do roli teoretyka, który potrafi opisać zagrożenia, ale nie ma narzędzi, by im realnie przeciwdziałać.

Przebudzenie w cieniu konkurencji

Zwolennicy silniejszego nadzoru, tacy jak pionier AI Yoshua Bengio czy była europosłanka Marietje Schaake, podkreślają, że niebezpiecznym precedensem jest sytuacja, w której to prywatna firma, a nie demokratyczny regulator, decyduje o tym, kto może sprawdzić poziom bezpieczeństwa danej technologii. Obecna dynamika pokazuje, że europejski aparat bezpieczeństwa AI wymaga pilnej profesjonalizacji.

Lekcja z Claude Mythos jest gorzka: samo prawo nie wystarczy, aby kontrolować technologię rozwijającą się w tempie wykładniczym. Prawdziwym testem dla Europy nie będzie jednak kolejny model od Anthropic, lecz moment, w którym podobnie potężne narzędzie pojawi się w laboratorium niebędącym sygnatariuszem żadnych zachodnich kodeksów etycznych.