Google Cloud w obliczu wojny o bezpieczeństwo AI: Czy sztuczna inteligencja obroni nas przed jutrzejszymi zagrożeniami?
W singapurskim biurze Google, Mark Johnston, dyrektor Google Cloud Office of the CISO na region Azji i Pacyfiku, otwarcie przyznał: pomimo dekad ewolucji cyberbezpieczeństwa, obrońcy wciąż przegrywają wojnę. Statystyki są alarmujące – w 69% przypadków naruszeń bezpieczeństwa w regionie Azji i Pacyfiku, firmy dowiadują się o włamaniach od podmiotów zewnętrznych. To porażający dowód na to, że większość organizacji nie jest w stanie samodzielnie wykryć, że padła ofiarą ataku.
Podczas okrągłego stołu poświęconego cyberbezpieczeństwu w erze AI, Johnston przedstawił strategię Google Cloud, która ma na celu odwrócenie tej niekorzystnej tendencji. Wykorzystanie sztucznej inteligencji ma dać obrońcom przewagę, jednak te same narzędzia stwarzają bezprecedensowe możliwości dla atakujących.
Stare problemy w nowej rzeczywistości
Kryzys nie jest nowy. Już w 1972 roku pionier cyberbezpieczeństwa, James B. Anderson, zauważył, że systemy same się nie bronią. Mimo upływu lat i postępu technologicznego, to wyzwanie pozostaje aktualne. Johnston podkreślił, że fundamentalne problemy bezpieczeństwa wciąż czekają na rozwiązanie.
Sytuację pogarsza fakt, że większość naruszeń bezpieczeństwa wynika z podstawowych błędów, takich jak luki w konfiguracji czy kompromitacja haseł. Google Cloud ujawnia, że ponad 76% ataków zaczyna się od tego typu niedociągnięć. Przykładem może być niedawna luka zero-day w Microsoft SharePoint, która była aktywnie wykorzystywana przez cyberprzestępców.
AI – broń obosieczna
Kevin Curran, profesor cyberbezpieczeństwa na Ulster University, porównuje obecną sytuację do wyścigu zbrojeń, w którym zarówno obrońcy, jak i atakujący wykorzystują narzędzia AI. Sztuczna inteligencja pozwala analizować ogromne ilości danych w czasie rzeczywistym i wykrywać anomalie. Z drugiej strony, AI usprawnia ataki phishingowe, automatyzuje tworzenie złośliwego oprogramowania i pomaga skanować sieci w poszukiwaniu luk.
Johnston nazywa to „dylematem obrońcy”. Google Cloud wierzy jednak, że AI może przechylić szalę zwycięstwa na stronę obrońców. Firma stawia na liczne zastosowania generatywnej AI w obszarach takich jak wykrywanie luk, analiza zagrożeń, generowanie bezpiecznego kodu i reagowanie na incydenty.
Sztuczna inteligencja w akcji: Projekt Big Sleep
Jednym z najbardziej obiecujących przykładów wykorzystania AI w obronie jest projekt „Big Sleep” realizowany przez Google Project Zero. Wykorzystuje on duże modele językowe do identyfikacji luk w kodzie. Johnston podkreślił, że Big Sleep wykrył lukę w bibliotece open source – po raz pierwszy, jak się uważa, za pomocą narzędzia AI. Liczba wykrytych luk stale rośnie.
Dzięki takim inicjatywom, operacje bezpieczeństwa ewoluują od manualnych do półautonomicznych. Systemy AI przejmują rutynowe zadania, a decyzje wymagające większej pewności i precyzji są delegowane do ludzi. Google Cloud planuje przejście przez cztery fazy: manualną, wspomaganą, półautonomiczną i autonomiczną. W ostatniej fazie, AI ma samodzielnie dbać o bezpieczeństwo użytkowników.
Pułapki i wyzwania autonomii
Automatyzacja niesie ze sobą nowe zagrożenia. Johnston przyznaje, że systemy AI mogą stać się celem ataków i manipulacji. Brakuje również dobrych mechanizmów autoryzacji, które gwarantowałyby, że używane narzędzia nie zostały naruszone.
Curran przestrzega przed nadmiernym poleganiem na AI, które może prowadzić do marginalizacji ludzkiej oceny. Potrzebny jest człowiek jako „pilot” i jasne określenie ról.
Google Cloud dba o to, by systemy AI generowały trafne i odpowiednie odpowiedzi. Technologia Model Armor filtruje wyniki, usuwając dane osobowe, treści nieodpowiednie dla kontekstu biznesowego i odpowiedzi, które mogłyby zaszkodzić wizerunkowi firmy.
Firma walczy również z problemem nieautoryzowanego wdrażania AI (tzw. shadow AI), które stwarza ogromne luki w bezpieczeństwie. Technologie ochrony wrażliwych danych skanują zasoby w różnych chmurach i systemach lokalnych.
Ograniczenia budżetowe i przyszłość cyberbezpieczeństwa
Johnston wskazuje na ograniczenia budżetowe jako główne wyzwanie dla dyrektorów ds. bezpieczeństwa (CISO) w regionie Azji i Pacyfiku. Paradoksalnie, organizacje borykają się z coraz większą liczbą cyberzagrożeń, a jednocześnie brakuje im środków na odpowiednią reakcję. Rosnąca liczba ataków, nawet tych mniej zaawansowanych, generuje dodatkowe koszty.
Presja finansowa komplikuje już i tak złożoną sytuację. Firmy poszukują partnerów, którzy pomogą im przyspieszyć wdrażanie zabezpieczeń bez konieczności zatrudniania nowych pracowników czy zwiększania budżetu. Mimo obiecujących możliwości AI, kluczowe pytania pozostają bez odpowiedzi. Johnston przyznaje, że ataki wykorzystujące AI na dużą skalę jeszcze się nie pojawiły, ale przestępcy wykorzystują AI do skalowania istniejących metod.
Google Cloud przygotowuje się na nadejście komputerów kwantowych, wdrażając kryptografię postkwantową. Integracja AI z cyberbezpieczeństwem stwarza szanse i zagrożenia. Technologie Google Cloud potrafią wykrywać luki, analizować zagrożenia i automatycznie reagować, ale te same technologie mogą być wykorzystane przez atakujących do rozpoznania, inżynierii społecznej i ukrywania się.
Curran podkreśla, że organizacje muszą przyjąć kompleksową i proaktywną politykę cyberbezpieczeństwa, jeśli chcą wyprzedzić atakujących. Ataki cybernetyczne to kwestia czasu, a AI jedynie zwiększy liczbę możliwości dostępnych dla przestępców. Sukces cyberbezpieczeństwa opartego na AI zależy od przemyślanego wdrażania narzędzi, nadzoru człowieka i dbałości o podstawowe zasady higieny bezpieczeństwa.
Johnston podsumowuje, że należy wdrażać AI w sposób ostrożny i stopniowy. Rewolucja AI w cyberbezpieczeństwie trwa, ale zwycięstwo odniosą ci, którzy potrafią zrównoważyć innowacje z rozważnym zarządzaniem ryzykiem.
