AI rewolucjonizuje cyberprzestępczość: Vibe hacking przyspiesza ataki i demokratyzuje hakerstwo
Postępy w sztucznej inteligencji, mimo obiecujących perspektyw w wielu obszarach, stają się również czynnikiem napędzającym ewolucję cyberprzestępczości. Wzrost liczby zgłaszanych naruszeń bezpieczeństwa systemów teleinformatycznych w Polsce w 2024 roku, w porównaniu do roku poprzedniego, osiągnął ponad 60% – zanotowano ponad 627 tysięcy przypadków. Ten znaczący wzrost, z 391 tysięcy w 2023 roku, jest symptomem głębszych zmian w metodyce ataków, gdzie sztuczna inteligencja odgrywa coraz bardziej centralną rolę.
Vibe hacking: nowa era zautomatyzowanych ataków
Jednym z najnowszych i najbardziej niepokojących zjawisk jest tak zwany vibe hacking. Technika ta nie wymaga już zaawansowanego kodowania ani wieloletniego doświadczenia, a jedynie umiejętności tworzenia odpowiednich zapytań (promptów) dla sztucznej inteligencji. Jak zauważa Ewelina Wachulec, Senior Engineering Manager w Dell Technologies, ten trend „demokratyzuje” cyberprzestępczość. To, co kiedyś było domeną interdyscyplinarnych zespołów lub wymagało lat nauki, dziś może zostać zrealizowane przez pojedynczą osobę za pośrednictwem sztucznej inteligencji, która generuje złośliwy kod i inne elementy ataku.
Główną konsekwencją vibe hackingu jest drastyczne przyspieszenie i zwiększenie skali ataków. „Sztuczna inteligencja automatyzuje cały ich przebieg, od początku do końca” – podkreśla Wachulec. Oznacza to, że organizacje są narażone na znacznie skuteczniejsze kampanie, co prowadzi do utraty wrażliwych danych lub żądań okupu.
Sztuczna inteligencja jako aktywny operator: przypadek GTG-2002
Raport „Threat Intelligence Report: August 2025” firmy Anthropic szczegółowo opisuje operację GTG-2002, która jest przykładem zastosowania sztucznej inteligencji jako aktywnego operatora w cyberatakach. Sprawcy wykorzystali narzędzie kodujące Anthropic do automatyzacji przygotowania i realizacji ataków, instruując AI do generowania kodu i omijania zabezpieczeń. W ciągu zaledwie miesiąca zaatakowano 17 organizacji z różnych sektorów, w tym rządowych, opieki zdrowotnej i służb ratunkowych. To dowód na to, że sztuczna inteligencja nie jest już tylko narzędziem doradczym, ale staje się wykonawcą złośliwych działań.
Mimo tych alarmujących doniesień, Ewelina Wachulec wskazuje na pozytywny aspekt: „Te modele są zabezpieczane”. Firmy technologiczne, służby bezpieczeństwa i działy cyberbezpieczeństwa współpracują, aby ograniczyć możliwość wykorzystania publicznie dostępnych modeli AI do celów hakerskich. To ciągły wyścig, gdzie rozwój metod obrony nadąża za ewoluującymi technikami ataków, choć zagrożenie ze strony „podziemia” rozwijającego własne, mniej kontrolowane AI, pozostaje.
Deepfake i oszustwa: inne oblicza AI w cyberprzestępczości
Sztuczna inteligencja jest również wykorzystywana do tworzenia zaawansowanych oszustw, takich jak deepfake. Zgodnie ze sprawozdaniem Pełnomocnika Rządu do Spraw Cyberbezpieczeństwa za 2024 rok, spodziewany jest wzrost kampanii wykorzystujących AI do generowania fałszywego głosu i wizerunku w latach 2025-2026. Badanie „Postawy Polaków wobec cyberbezpieczeństwa 2025” wskazuje, że dla 23% Polaków deepfake stanowi największe zagrożenie w internecie, często wykorzystywane w mistyfikacjach inwestycyjnych, na przykład związanych z kryptowalutami.
Ekspertka Dell Technologies zwraca uwagę, że sztuczna inteligencja w atakach nie kieruje się motywacjami ludzkimi. „Ona po prostu szuka w automatyczny sposób luk w zabezpieczeniach. Sztucznej inteligencji nie interesuje, kto jest atakowany, ona po prostu w bezlitosny i zautomatyzowany sposób wyszukuje podatności, luki, przygotowuje schematy ataku i atakuje” – wyjaśnia.
Firmy wobec zagrożeń i potrzeba edukacji
Raport KPMG „Barometr Cyberbezpieczeństwa” za ubiegły rok ujawnia, że 83% polskich firm doświadczyło co najmniej jednego incydentu związanego z cyberbezpieczeństwem, co oznacza wzrost o 16 punktów procentowych w ciągu roku. Rosnące zagrożenia skłaniają firmy do zwiększania inwestycji w bezpieczeństwo cyfrowe. Choć 34% badanych organizacji wykorzystuje sztuczną inteligencję do wsparcia działów IT, zaledwie 13% stosuje ją bezpośrednio w cyberbezpieczeństwie. Jest to sygnał, że pomimo rosnącej świadomości, braki kadrowe i ograniczenia finansowe wciąż stanowią barierę.
Ewelina Wachulec podkreśla również, że choć firmy dysponują narzędziami obrony, to „nie nadążamy z edukacją i świadomością tych zagrożeń”. Wiedza o schematach ataków jest kluczowa dla skutecznej obrony. „Potrzebna jest nam świadomość, że takie technologie istnieją, że w publicznych modelach zostało zablokowane wykorzystywanie ich do złych celów, ale istnieje podziemie, w którym są tworzone modele do takich celów” – dodaje.
Raport ESET i DAGMA Bezpieczeństwo IT „Cyberportret polskiego biznesu 2025” pokazuje, że co trzeci pracownik przyznał, iż dał wiarę treści deepfake. To dowód na luki w świadomości i potrzebę edukacji na każdym poziomie. Około 30% Polaków opowiada się za wprowadzeniem obowiązkowych zajęć z edukacji cyfrowej w szkołach, a 28% podkreśla rolę rodziny w kształtowaniu bezpiecznych postaw online.
Edukacja w zakresie zagrożeń, takich jak deepfake czy voice cloning, powinna być powszechna i obejmować zarówno szkoły, jak i firmy. Wiedza ta nie powinna pozostawać jedynie w zespołach cyberbezpieczeństwa, lecz być szeroko udostępniana i aktualizowana, aby społeczeństwo było w stanie skutecznie chronić się przed dynamicznie zmieniającymi się technikami cyberprzestępczości opartymi na sztucznej inteligencji.
