Anthropic: chińska grupa hakerska wykorzystała Claude’a w operacji cyberszpiegowskiej
AI na celowniku i w arsenale
Anthropic poinformował, że wykrył kampanię cyberszpiegowską, w której sprawcy – według ustaleń firmy najpewniej powiązani z państwem i działający z terytorium Chin – wykorzystali jego model konwersacyjny Claude do przeprowadzenia ataków na około 30 podmiotów. Na liście celów miały znaleźć się firmy technologiczne, instytucje finansowe, producenci z branży chemicznej oraz agencje rządowe. Celem było pozyskiwanie nazw użytkowników i haseł z baz danych, a następnie kradzież poufnych informacji.
Według Anthropic tylko niewielka część prób zakończyła się powodzeniem, jednak firma określiła operację jako „pierwszy udokumentowany przypadek zakrojonego na szeroką skalę cyberataku wykonanego bez istotnej interwencji człowieka”. O odkryciach spółka z San Francisco poinformowała CBS News; pierwsze doniesienia opublikował Wall Street Journal.
Jak działał atak
Nietypowo jak na kampanie APT, rdzeń operacji miał opierać się na automatyzacji z użyciem modelu AI. Z ustaleń Anthropic wynika, że sprawcy wprowadzili Claude’a w błąd, podszywając się pod pracownika legalnej firmy bezpieczeństwa i przedstawiając swoje działania jako testy defensywne. Aby utrudnić wykrycie, rozbili atak na wiele drobnych zadań i zautomatyzowali ich wykonywanie.
Firma podaje, że system generował „tysiące żądań na sekundę” – tempo trudne do osiągnięcia dla ludzkich operatorów. Pierwsze oznaki podejrzanej aktywności Anthropic zaobserwował w połowie września, co uruchomiło dochodzenie prowadzące do wniosku, że stoi za nią sponsorowana przez państwo grupa z Chin.
Skala i cele
Atak miał obejmować zbieranie i weryfikację poświadczeń, które następnie posłużyły do dostępu do zasobów ofiar i wyprowadzenia danych. Zakres branż – od technologii i finansów po chemię i administrację publiczną – sugeruje motywację szpiegowską, a nie wyłącznie przestępczą. Anthropic podkreśla jednak, że większość prób została udaremniona.
Co wiemy, a czego nie
Spółka nie ujawniła, które organizacje stały się ofiarami, ani jakie dokładnie informacje wykradziono. Brakuje też szczegółów technicznych: nie wiadomo, jakie zabezpieczenia modelu zostały obejście, jak wyglądała kontrola nadużyć i ograniczenia szybkości czy w jaki sposób uzyskano tak wysoką przepustowość żądań. Skala sugeruje wykorzystanie rozproszonej infrastruktury i wielu kont, co stawia pytania o skuteczność guardrails i limitów w komercyjnych chatbotach przy presji działań przeciwnika.
MIT Technology Review zwraca uwagę, że tzw. agenci AI są tańsi od wyspecjalizowanych zespołów hakerskich i łatwo skalują operacje, co czyni je atrakcyjnymi dla cyberprzestępców i grup wywiadowczych. Jeśli potwierdzą się ustalenia Anthropic, będzie to mocny sygnał, że automatyzacja ofensywna wchodzi w fazę produkcyjną.
Konsekwencje dla branży
Chris Krebs, były szef amerykańskiej CISA, powiedział w CBS Mornings, że to zapowiedź tego, co nadchodzi. Eksperci opisują takie scenariusze od lat, ale zobaczyć w pełni zautomatyzowany atak w praktyce – to, jak ujął Krebs, „mrożące krew w żyłach”.
Anthropic zapowiada, że spodziewa się wzrostu skali i złożoności ataków AI wraz z popularyzacją agentów i usług automatyzujących. Dla dostawców modeli oznacza to presję na wzmocnienie mechanizmów weryfikacji tożsamości, filtrowania zadań o charakterze ofensywnym i detekcji anomalii ruchu. Dla ofiar – konieczność zakładania, że atakujący dysponują narzędziami działającymi szybciej niż człowiek i potrafiącymi wiarygodnie symulować legalne procesy bezpieczeństwa.
Na razie większość odpowiedzi znajduje się po stronie Anthropic, które nie skomentowało sprawy szerzej poza przekazaniem wniosków mediom. To, czy był to rzeczywiście pierwszy przypadek tak zaawansowanej automatyzacji ataku, zweryfikuje dopiero praktyka – i kolejne incydenty.
