Cyberbezpieczeństwo

Przeglądarki AI: Nowa era zagrożeń bezpieczeństwa w korporacjach

Wraz z dynamicznym rozwojem systemów sztucznej inteligencji, na biurkach pracowników korporacji coraz częściej pojawiają sięprzeglądarki internetowe wyposażone w funkcje AI. Aplikacje te, określane mianem kolejnej ewolucji tradycyjnych przeglądarek, obiecują przyspieszenie przepływu pracy, efektywne wyszukiwanie informacji oraz dostęp do danych z wewnętrznych systemów i szerokiego internetu.

Badania zespołów ds. bezpieczeństwa, w tym te prowadzone przez Brave, jednoznacznie wskazują, że przeglądarki AI wprowadzają do środowiska korporacyjnego poważne zagrożenia, których nie można ignorować. Kluczowym problemem jest ich wysoka podatność na ataki typu pośrednie wstrzykiwanie promptów.

Ukryte instrukcje i manipulacja

Ataki te polegają na osadzeniu specjalnie spreparowanych instrukcji w treści stron internetowych, które są następnie interpretowane przez model AI w przeglądarce. Tekst lub obrazy mogą zawierać niewidoczne dla ludzkiego oka komendy, które modyfikują lub nadpisują prompty wprowadzane przez użytkownika. W efekcie model sztucznej inteligencji może zostać zmuszony do wykonania nieautoryzowanych działań, wykorzystując uprawnienia użytkownika. Im szerszy jest zakres dostępu użytkownika do danych, tym większe ryzyko dla organizacji.

Przykładowo, badacze wykazali, że ukryte polecenia tekstowe w obrazie, po wyświetleniu w przeglądarce AI, mogą skłonić asystenta AI do interakcji z wrażliwymi zasobami, takimi jak korporacyjna poczta e-mail czy panele bankowości internetowej. Inny eksperyment pokazał, jak prompt asystenta AI może zostać przejęty i wykorzystany do wykonywania nieuprawnionych działań w imieniu użytkownika.

Takie luki w zabezpieczeniach są sprzeczne z podstawowymi zasadami zarządzania danymi i stanowią przykład tego, jak „cień AI” – w postaci nieautoryzowanych przeglądarek – może zagrażać bezpieczeństwu danych organizacji. Model AI, działając jako pomost między domenami, omija politykę „same-origin”, która zapobiega dostępowi do danych z jednej domeny przez inną.

Wyzwania związane z implementacją i zarządzaniem

Źródłem problemu jest łączenie zapytań użytkownika w przeglądarce z danymi dostępnymi na żywo w sieci. Jeśli model językowy (LLM) nie potrafi odróżnić bezpiecznych danych wejściowych od złośliwych, może nieświadomie uzyskać dostęp do danych niepożądanych przez operatora i na nich działać. Nadanie przeglądarce agentowych (autonomicznych) zdolności może prowadzić do daleko idących konsekwencji, włącznie z kaskadą złośliwych działań w całej firmie.

Dla organizacji opierających się na segmentacji danych i kontroli dostępu, zinfiltrowana warstwa AI w przeglądarce użytkownika może ominąć zapory sieciowe, przeprowadzać wymiany tokenów i używać bezpiecznych ciasteczek w taki sam sposób, jak człowiek. Przeglądarka AI skutecznie staje się wtedy zagrożeniem wewnętrznym, posiadającym dostęp do danych i możliwości swojego ludzkiego operatora. Co istotne, użytkownik przeglądarki niekoniecznie będzie świadomy aktywności „pod maską”, co pozwala zainfekowanej przeglądarce działać przez długi czas bez wykrycia.

Łagodzenie zagrożeń i przyszłe rozwiązania

Pierwsza generacja przeglądarek AI powinna być traktowana przez działy IT analogicznie do nieautoryzowanych instalacji oprogramowania firm trzecich. Chociaż blokowanie konkretnego oprogramowania jest stosunkowo proste, należy pamiętać, że popularne przeglądarki, takie jak Chrome i Edge, są coraz częściej wyposażane w funkcje AI, takie jak Gemini i Copilot. Producenci przeglądarek aktywnie eksplorują możliwości przeglądania wspomagane AI, a funkcje agentowe (udzielające przeglądarce znacznej autonomii) pojawią się szybko, napędzane potrzebą uzyskania przewagi konkurencyjnej.

Bez odpowiedniego nadzoru i kontroli organizacje narażają się na poważne ryzyko. Przyszłe generacje przeglądarek powinny być weryfikowane pod kątem obecności następujących cech:

  • Izolacja promptów: Separowanie intencji użytkownika od treści stron internetowych firm trzecich zanim zostanie wygenerowany prompt dla LLM.
  • Ograniczone uprawnienia: Agenty AI nie powinny mieć możliwości wykonywania autonomicznych działań, takich jak nawigacja, pobieranie danych czy dostęp do plików bez wyraźnego potwierdzenia użytkownika.
  • Sandbox dla wrażliwych obszarów: Wykluczenie aktywności AI w krytycznych sekcjach, takich jak HR, finanse czy wewnętrzne panele.
  • Integracja z politykami zarządzania danymi: AI w przeglądarce musi być zgodne z politykami bezpieczeństwa danych, a oprogramowanie powinno zapewniać rejestrowanie działań agentowych w celu ich śledzenia.

Do tej pory żaden dostawca przeglądarek nie przedstawił rozwiązania, które potrafiłoby odróżnić intencje użytkownika od poleceń interpretowanych przez model. Bez tego, przeglądarki mogą być zmuszone do działania na szkodę organizacji poprzez stosunkowo proste ataki wstrzykiwania promptów.

Wnioski dla decydentów

Agentowe przeglądarki AI są prezentowane jako kolejny krok w ewolucji przeglądania sieci i automatyzacji pracy. Zostały zaprojektowane tak, aby zacierać granice między aktywnością użytkownika a interakcjami z cyfrowymi zasobami przedsiębiorstwa. Biorąc pod uwagę łatwość, z jaką modele językowe w przeglądarkach AI mogą być manipulowane, obecna generacja tych narzędzi może być traktowana jako uśpione złośliwe oprogramowanie.

Wiodący dostawcy przeglądarek z pewnością będą implementować sztuczną inteligencję (z lub bez funkcji agentowych) w przyszłych wersjach swoich platform. Dlatego niezbędne jest staranne monitorowanie każdego wydania, aby zapewnić odpowiedni nadzór nad bezpieczeństwem.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *