Cyberbezpieczeństwo

Sztuczna inteligencja jako broń obosieczna w cyberbezpieczeństwie

Sztuczna inteligencja osiąga niespotykaną dotąd biegłość w identyfikacji luk w zabezpieczeniach, co skłania ekspertów do refleksji nad fundamentalnymi zasadami budowy oprogramowania. Przykładem jest sytuacja, jaka spotkała firmę RunSybil, której system SI, Sybil, zidentyfikował złożoną słabość w systemach klienta.

Vlad Ionescu i Ariel Herbert-Voss, współzałożyciele startupu RunSybil, byli zaskoczeni, gdy uruchomiona przez nich Sybil wykryła nieznaną wcześniej podatność. System, wykorzystujący zaawansowane modele SI i autorskie rozwiązania, zasygnalizował problem z wdrożeniem federacyjnego GraphQL. Okazało się, że klient nieświadomie udostępniał poufne dane. To, co szczególnie zaskoczyło Ionescu i Herbert-Vossa, to fakt, że wykrycie tego błędu wymagało dogłębnej wiedzy o wielu współpracujących ze sobą systemach. RunSybil twierdzi, że podobne problemy z GraphQL odkryto również u innych klientów, zanim publicznie o nich poinformowano. Herbert-Voss podkreśla, że było to „rozumowanie na poziomie możliwości modeli, skokowa zmiana”.

Sytuacja ta uwypukla rosnące zagrożenie. W miarę jak modele SI stają się coraz inteligentniejsze, ich zdolność do znajdowania tzw. luk zero-day i innych podatności będzie wzrastać. Ta sama inteligencja, która potrafi wykrywać słabości, może być również wykorzystana do ich eksploatacji.

Dawn Song, informatyczka z Uniwersytetu Kalifornijskiego w Berkeley, specjalizująca się w SI i bezpieczeństwie, zauważa, że ostatnie postępy w SI zaowocowały modelami, które znacznie lepiej wykrywają błędy. Symulowane rozumowanie, polegające na dzieleniu problemów na mniejsze części, oraz agenci SI, obejmujący przeszukiwanie sieci czy uruchamianie narzędzi, znacząco zwiększyły ich możliwości w cyberprzestrzeni. Song określa ten moment jako „punkt zwrotny”.

W ubiegłym roku Song współtworzyła benchmark CyberGym, mający na celu ocenę zdolności dużych modeli językowych do znajdowania luk w otwartych projektach oprogramowania. CyberGym zawiera 1507 znanych podatności wykrytych w 188 projektach. W lipcu 2025 roku model Anthropic Claude Sonnet 4 był w stanie znaleźć około 20 procent luk w tym teście. Do października 2025 roku, nowszy model, Claude Sonnet 4.5, zidentyfikował już 30 procent. „Agenci SI są w stanie znajdować luki zero-day, i to bardzo niskim kosztem” – komentuje Song.

Według Song, ten trend wymaga opracowania nowych środków zaradczych, w tym wykorzystania sztucznej inteligencji do wspierania ekspertów ds. cyberbezpieczeństwa. „Musimy zastanowić się, jak SI może bardziej pomóc po stronie obronnej, i można zbadać różne podejścia” – dodaje. Jednym z pomysłów jest udostępnianie modeli SI firmom zajmującym się bezpieczeństwem jeszcze przed ich szerokim wdrożeniem, aby mogły one znaleźć błędy i zabezpieczyć systemy przed publicznym udostępnieniem.

Innym rozwiązaniem, sugeruje Song, jest przemyślenie sposobu, w jaki oprogramowanie jest projektowane od podstaw. Jej laboratorium pokazało, że możliwe jest wykorzystanie SI do generowania kodu, który jest bezpieczniejszy niż ten tworzony obecnie przez większość programistów. „W dłuższej perspektywie, wierzymy, że podejście 'bezpieczeństwo od podstaw’ naprawdę pomoże obrońcom” – podsumowuje Song.

Zespół RunSybil ostrzega, że w krótkim terminie umiejętności kodowania rozwijane przez modele SI mogą dać hakerom przewagę. Jak zauważa Herbert-Voss, „SI może generować działania na komputerze i generować kod, a to są dwie rzeczy, które robią hakerzy. Jeśli te możliwości przyspieszą, oznacza to, że ofensywne działania w zakresie bezpieczeństwa również przyspieszą”. To stawia przed branżą technologiczną wyzwanie, które wymaga natychmiastowej uwagi i innowacyjnych rozwiązań.