Agenci AICyberbezpieczeństwo

Perplexity podnosi poprzeczkę w bezpieczeństwie agentów AI w przeglądarkach

Wraz z dynamicznym rozwojem agentów AI, które coraz częściej funkcjonują w środowisku przeglądarek internetowych, pojawiają się nowe wyzwania związane z ich bezpieczeństwem. W odpowiedzi na te zagrożenia firma Perplexity wprowadziła BrowseSafe-Bench, kompleksowe narzędzie mające na celu ochronę tych zaawansowanych systemów.

BrowseSafe-Bench to nie tylko kolejny benchmark, ale także ściśle z nim powiązany, dostrojony model detekcji. Jego głównym zadaniem jest identyfikacja i zapobieganie złośliwym instrukcjom, takim jak ataki typu prompt injection, które mogą manipulować zachowaniem agentów AI. Rozwiązanie to jest skierowane przede wszystkim do badaczy, deweloperów przeglądarek oraz organizacji wdrażających agentów AI w sieci, oferując im niezawodne narzędzie do weryfikacji i wzmacniania zabezpieczeń.

„Dzisiaj udostępniamy BrowseSafe i BrowseSafe-Bench: otwarte źródło modelu detekcji i benchmarku do wykrywania i zapobiegania złośliwym instrukcjom typu prompt-injection w czasie rzeczywistym”, ogłosiła firma Perplexity na platformie X.

Warto podkreślić, że BrowseSafe-Bench dostarcza kompleksowe środowisko do oceny złożonych, rzeczywistych ataków na agentów przeglądarkowych. Ci agenci, zdolni do interpretowania i interakcji z treściami internetowymi w imieniu użytkowników, są szczególnie narażeni na zaawansowane techniki manipulacji. Benchmark symuluje różnorodne scenariusze zagrożeń, uwzględniając zmienność typów ataków, strategii wstrzykiwania oraz stylów językowych. To odzwierciedla subtelność i różnorodność faktycznych złośliwych ładunków, z którymi mają do czynienia agenci online.

W sercu systemu detekcji leży model oparty na architekturze Mixture-of-Experts (Qwen-30B-A3B-Instruct-2507). Wykazuje on stanowiącą punkt odniesienia wydajność (F1 0.91), jednocześnie zachowując niezbędną szybkość do działania w czasie rzeczywistym, co jest kluczowe w środowisku przeglądarek. Podejście Perplexity opiera się na strategii „obrony w głąb”, obejmującej asynchroniczną detekcję hybrydową i dynamiczne retrenowanie systemu w oparciu o oznaczane przypadki graniczne. Dzięki temu model jest w stanie adaptować się do ewoluujących zagrożeń.

Wczesne reakcje społeczności badawczej są bardzo pozytywne, podkreślając realizm benchmarku oraz solidną wydajność modelu. Dostępność zbioru danych i samego modelu jako otwartego źródła sprzyja współpracy i przejrzystości, co ustanawia nowy standard w dziedzinie bezpieczeństwa agentów AI w przeglądarkach. Ruch ten może znacząco przyczynić się do bardziej bezpiecznego i wiarygodnego rozwoju technologii AI w środowisku webowym.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *