Cyberbezpieczeństwo

Projekt Glasswing: Anthropic łączy siły z gigantami technologicznymi przeciwko cyberzagrożeniom AI

Branża sztucznej inteligencji dotarła do punktu, w którym granica między narzędziem wspomagającym programistów a bronią w rękach hakerów stała się niebezpiecznie cienka. Anthropic, po tygodniach spekulacji dotyczących nowych możliwości swoich modeli, oficjalnie zaprezentował Claude Mythos Preview. Zamiast jednak tradycyjnej premiery rynkowej, firma postawiła na nietypowy ruch: powołanie konsorcjum Project Glasswing. To grupa ponad 45 organizacji, w tym rynkowych rywali takich jak Google, Microsoft czy Apple, które otrzymały prywatny dostęp do modelu, by wspólnie przetestować wytrzymałość cyfrowych fundamentów współczesnego świata.

Sztuczna inteligencja jako audytor systemów

Claude Mythos Preview nie powstał z myślą o cyberbezpieczeństwie. Dario Amodei, CEO Anthropic, przyznaje wprost: model trenowano tak, by był wybitny w kodowaniu. Efektem ubocznym tej biegłości okazała się jednak naturalna zdolność do znajdowania błędów w oprogramowaniu i konstruowania skomplikowanych łańcuchów ataków (exploit chains). To właśnie ta dualna natura technologii skłoniła firmę do wdrożenia strategii kontrolowanego ujawniania parametrów modelu.

Przystąpienie do Project Glasswing takich podmiotów jak Amazon Web Services, Nvidia, Cisco czy Linux Foundation nie jest przypadkowe. Mythos Preview wykazał się już zdolnością do identyfikowania tysięcy krytycznych luk, w tym błędów tkwiących w najgłębszych warstwach kodu od dekad, które umykały ludzkim badaczom. Partnerzy inicjatywy mają teraz czas, by przy użyciu modelu przeprowadzić symulowane ataki na własne systemy i naprawić usterki, zanim podobne zdolności trafią do powszechnego użytku.

Koniec starego paradygmatu bezpieczeństwa

„Musimy przygotować się na świat, w którym te możliwości staną się powszechnie dostępne w ciągu najbliższych kilku lub kilkunastu miesięcy” – ostrzega Logan Graham, lider zespołu red teamingu w Anthropic. Według niego obecne modele bezpieczeństwa opierają się na założeniach, które w starciu ze sztuczną inteligencją o kompetencjach seniora ds. cyberbezpieczeństwa mogą po prostu przestać obowiązywać. Mythos Preview potrafi nie tylko znajdować luki, ale też przeprowadzać testy penetracyjne, oceniać pliki binarne bez dostępu do kodu źródłowego i wykrywać błędy w konfiguracji punktów końcowych.

Z perspektywy gigantów z Mountain View czy Redmond, Project Glasswing to szansa na przejęcie inicjatywy w niekończącym się wyścigu zbrojeń. Igor Tsyganskiy z Microsoftu podkreśla, że wychodzimy poza ramy, w których bezpieczeństwo było ograniczone wyłącznie przez ludzką wydolność. Z kolei Heather Adkins z Google zauważa, że AI otwiera przed defensywą szanse na skalowanie ochrony w sposób dotychczas nieosiągalny.

Odpowiedzialność w erze potężnych modeli

Podejście Anthropic przypomina klasyczną procedurę coordinated vulnerability disclosure, stosowaną przy odkrywaniu błędów w oprogramowaniu – najpierw daje się producentowi czas na łatkę, potem publikuje się informacje o zagrożeniu. W przypadku Claude Mythos Preview „produktem” jest sam model, którego potencjał jako akceleratora dla cyberprzestępców jest realny i groźny.

Sukces Projektu Glasswing będzie zależał od tego, czy ta nietypowa koalicja konkurentów zdoła wypracować nowe standardy ochrony, zanim kolejna generacja modeli AI trafi na czarny rynek. Dla branży to jasny sygnał: czas nieuregulowanego optymizmu się skończył, nadszedł czas twardej, technicznej weryfikacji odporności cyfrowego świata.