Cyberbezpieczeństwo

Mit wielkiego muru Anthropic upada. GPT-5.4 łamie kod za grosze

Kiedy Anthropic zaprezentowało model Claude Mythos, narracja była jasna: to narzędzie zbyt niebezpieczne dla mas. Zamknięte w cyfrowym bunkrze, dostępne tylko dla wybranych gigantów technologicznych i monitorowane przez Departament Skarbu USA, miało być zwiastunem „vulnpocalipse”.

Okazało się, że ten bunkier ma szklane ściany.

Demokratyzacja cyfrowego zniszczenia

Zespół badawczy z Vidoc Security właśnie rozbił ekskluzywny mit Anthropic. Bez dostępu do prywatnych API, bez zaproszeń dla elit i bez wewnętrznej infrastruktury laboratoryjnej, badacze użyli GPT-5.4 oraz Claude Opus 4.6, by powtórzyć wyczyny Mythos. Narzędzie? Otwarty agent kodujący o nazwie opencode.

Wnioski są brutalne dla marketingu bezpieczeństwa: ekonomia wykrywania podatności zmieniła się bezpowrotnie. Nie potrzebujesz „magicznego modelu” od OpenAI czy Anthropic, by zajrzeć pod maskę krytycznych systemów. Wystarczy karta kredytowa i zrozumienie strategii chunkingu.

Skuteczność za cenę obiadu

Badacze wzięli na warsztat te same cele, którymi chwaliło się Anthropic: stosy sieciowe systemów operacyjnych o podwyższonym bezpieczeństwie, biblioteki kryptograficzne i stacki wideo zasilające globalne platformy mediaowe. Wyniki dają do myślenia:

  • GPT-5.4 i Claude Opus 4.6 bezbłędnie namierzyły dwa błędy w trzech próbach.
  • Claude Opus 4.6 samodzielnie odkrył lukę w OpenBSD trzy razy z rzędu.
  • Koszt pojedynczego skanu pliku nie przekroczył 30 dolarów.

„Modele AI są już wystarczająco dobre, by zawęzić przestrzeń poszukiwań i wskazać prawdziwe tropy w kodzie hartowanym latami testów” – komentuje Dawid Moczadło z Vidoc Security. To już nie jest teoretyczne zagrożenie; to automatyzacja pracy, która wcześniej wymagała miesięcy analizy eksperckiej.

Architektura zamiast magii

Sukces Vidoc Security nie polegał na wysłaniu jednego, genialnego promptu. Badacze zbudowali system agentowy, który naśladował workflow Anthropic. Agent planujący dzielił kod na fragmenty, a agenci detekcyjni analizowali je równolegle, weryfikując nawzajem swoje znaleziska. To systemowa inteligencja, a nie pojedynczy przebłysk geniuszu maszyny, stanowi o sile ataku.

Istnieje jednak cienka czerwona linia, której publiczne modele jeszcze nie przekroczyły.

Choć GPT-5.4 i Opus 4.6 potrafią wskazać dziurę w systemie, Mythos potrafi coś więcej: buduje plan ataku. Podczas gdy ogólnodostępne modele znajdują uszkodzone ogniwo, Mythos projektuje sposób, w jaki napastnik może przejąć kontrolę nad maszyną, łącząc fragmenty kodu w gotową broń. Różnica nie leży już w samym widzeniu problemu, ale w wiedzy, jak brutalnie go wykorzystać.

Koniec ery bezpiecznych benchmarków

Raport Anthropic otwarcie przyznaje, że Cybench – standardowy miernik ryzyka cybernetycznego – przestał być użyteczny. Modele klasy Mythos po prostu go „wymaksowały”. To, co dziś jest domeną zamkniętych laboratoriów, według prognoz trafi do szerokiego obiegu w ciągu 6 do 18 miesięcy.

Próg wejścia w zaawansowane cyberataki właśnie przestał istnieć.

Prawdziwa bariera nie dotyczy już dostępu do modelu, ale weryfikacji sygnału. Znalezienie luki stało się tanim towarem. Przekucie go w rzetelną pracę związaną z bezpieczeństwem (lub profesjonalny exploit) to wciąż domena ludzi, ale margines błędu kurczy się z każdą nową iteracją API.