Cyberbezpieczeństwo

AI w cyberbezpieczeństwie: Jak AbbVie wykorzystuje sztuczną inteligencję do obrony przed zagrożeniami

Cyberbezpieczeństwo wkracza w nową erę, w której sztuczna inteligencja staje się kluczową bronią – zarówno w rękach obrońców, jak i napastników. Firmy na całym świecie szukają sposobów na wykorzystanie AI do ochrony swoich zasobów, ale muszą też być świadome potencjalnych zagrożeń. Rachel James, Principal AI ML Threat Intelligence Engineer w globalnej firmie biofarmaceutycznej AbbVie, dzieli się swoimi doświadczeniami w tym zakresie.

Sztuczna inteligencja w akcji: Analiza i automatyzacja

AbbVie wykorzystuje duże modele językowe (LLM) do analizy ogromnej ilości alertów bezpieczeństwa, identyfikowania wzorców, duplikatów i luk w zabezpieczeniach. – Używamy tego do określania podobieństw, duplikatów i analizy luk – wyjaśnia James. Następnym krokiem jest integracja z zewnętrznymi danymi o zagrożeniach. Kluczową rolę odgrywa platforma OpenCTI, która pomaga budować jednolity obraz zagrożeń. AI porządkuje nieustrukturyzowane dane tekstowe, konwertując je do standardowego formatu STIX. Wizją James jest wykorzystanie modeli językowych do połączenia analizy zagrożeń z innymi obszarami bezpieczeństwa, od zarządzania podatnościami po ocenę ryzyka związanego z firmami trzecimi.

Ostrożność przede wszystkim: Ryzyko i wyzwania

Wykorzystanie AI wiąże się z ryzykiem. James zwraca uwagę na trzy zasadnicze kwestie, z którymi muszą się zmierzyć liderzy biznesowi: akceptacja ryzyka związanego z kreatywnością generatywnej AI, utrata transparentności w procesie podejmowania decyzji przez AI oraz niebezpieczeństwo przeszacowania zwrotu z inwestycji w projekty AI. Grupa OWASP (Open Web Application Security Project) stworzyła listę „Top 10 for GenAI”, która pomaga zrozumieć potencjalne luki w zabezpieczeniach, które mogą wprowadzić systemy AI.

Zrozumieć przeciwnika to podstawa

Kluczem do skutecznego cyberbezpieczeństwa w erze AI jest zrozumienie, w jaki sposób myślą i działają cyberprzestępcy. James śledzi dyskusje i rozwój narzędzi wykorzystywanych przez napastników, analizuje dane z otwartych źródeł i dark webu. Dzieli się swoimi odkryciami na GitHubie (cybershujin). Uczestniczy również w tworzeniu technik ataków, przewodząc projektowi Prompt Injection w ramach OWASP i współtworząc „Guide to Red Teaming GenAI”.

Przyszłość cyberbezpieczeństwa: Integracja i współpraca

James dostrzega dużą szansę w połączeniu wiedzy o zagrożeniach cybernetycznych z danymi wykorzystywanymi w systemach AI/ML. – Cykl życia analizy zagrożeń cybernetycznych jest niemal identyczny z cyklem życia danych w systemach AI/ML – zauważa. Uważa, że obrońcy mają wyjątkową okazję do wykorzystania danych wywiadowczych i sztucznej inteligencji. Jej przesłanie dla specjalistów od cyberbezpieczeństwa jest jasne: – Data science i AI staną się częścią życia każdego specjalisty od cyberbezpieczeństwa, zaakceptujcie to.

Rachel James zaprezentuje swoje spostrzeżenia na konferencji AI & Big Data Expo Europe w Amsterdamie w dniach 24-25 września 2025 roku. Jej prezentacja drugiego dnia będzie poświęcona etyce AI na dużą skalę.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *