Cyberbezpieczeństwo

Kryptonim Mythos: OpenAI i Anthropic wkraczają do Kapitolu z cybermodelami

Broń ukryta w logice

Amerykański Kongres właśnie zderzył się z rzeczywistością, w której sztuczna inteligencja przestaje pisać wiersze, a zaczyna aktywnie szukać luk zero-day. OpenAI i Anthropic, w ścisłej tajemnicy, zaprezentowały pracownikom Komisji Bezpieczeństwa Krajowego Izby Reprezentantów możliwości swoich najnowszych modeli cybernetycznych. Nie była to kurtuazyjna wizyta, lecz demonstracja siły narzędzi, które potrafią błyskawicznie mapować błędy w infrastrukturze krytycznej.

Największy niepokój budzi Anthropic Mythos Preview. To model tak skuteczny w automatyzacji ataków, że firma zdecydowała się na bezprecedensowy krok: wstrzymanie publicznej premiery. To sygnał, że granica między asystentem programisty a cyfrowym taranem ostatecznie uległa zatarciu.

Strategia kontrolowanego udostępniania

OpenAI przyjęło inną taktykę. Zamiast blokady, gigant stawia na system kaskadowy w ramach modelu GPT-5.4-Cyber. Dostęp do najbardziej wrażliwych funkcji mają otrzymać wyłącznie agencje federalne i starannie wyselekcjonowani partnerzy.

Dlaczego ma to znaczenie?

  • Infrastruktura krytyczna: Sektory z niskim budżetem na IT są teraz na celowniku zautomatyzowanych exploitów.
  • Chińska duplikacja: Biały Dom alarmuje, że Pekin prowadzi „kopiowanie na skalę przemysłową” amerykańskich modeli AI.
  • Podwójne zastosowanie (dual-use): Te same narzędzia, które mają łatać kod, stają się podręcznikiem dla cyberprzestępców.

W tle tych spotkań unosi się raport o „jailbreakingu” – manipulowaniu AI w celu omijania zabezpieczeń. Kongresmeni, którym pokazano, jak łatwo zmusić AI do zaplanowania ataku fizycznego, nie kryli przerażenia. Reprezentant August Pfluger stwierdził krótko: to, co zobaczył, jest po prostu straszne.

Lata świetlne za algorytmem

Kiedy Andrew Garbarino, przewodniczący komisji, mówi o „produktywnym partnerstwie”, za kulisami słychać raczej panikę. Politycy zdali sobie sprawę, że próbują regulować technologię, która ewoluuje szybciej niż proces legislacyjny jakiejkolwiek ustawy.

To nie jest tylko kwestia bezpieczeństwa narodowego. To kryzys zaufania do „otwartej” AI. Jeśli najpotężniejsze modele są zbyt groźne, by trafić w ręce cywilów, to kończy się era demokratyzacji technologii, a zaczyna era wyścigu zbrojeń ukrytego w czarnych skrzynkach wielkich korporacji.

Kongres jest w defensywie. Próby stworzenia federalnych ram prawnych dla AI, forsowane przez Jaya Obernolte, mogą okazać się spóźnione o całą generację algorytmów.