BiznesCyberbezpieczeństwo

Irregular pozyskuje 80 milionów dolarów na zabezpieczenie modeli AI nowej generacji

Irregular, firma specjalizująca się w zabezpieczeniach sztucznej inteligencji, ogłosiła pozyskanie 80 milionów dolarów w rundzie finansowania prowadzonej przez Sequoia Capital i Redpoint Ventures, z udziałem dyrektora generalnego Wiz, Assafa Rappaporta. Źródła bliskie transakcji wskazują, że wycena Irregular wynosi obecnie 450 milionów dolarów.

Dan Lahav, współzałożyciel Irregular, w rozmowie z TechCrunch zaznaczył, że wkrótce znaczną część aktywności ekonomicznej będzie generować interakcja człowiek-AI oraz AI-AI. To z kolei, jak twierdzi, doprowadzi do poważnych luk w obecnych systemach zabezpieczeń.

Firma, wcześniej znana jako Pattern Labs, już teraz odgrywa znaczącą rolę w ocenie bezpieczeństwa AI. Ich prace są wykorzystywane w ocenach modeli Claude 3.7 Sonnet oraz o3 i o4-mini OpenAI. Stworzony przez Irregular system oceny podatności modeli na zagrożenia, SOLVE, zyskał szerokie uznanie w branży.

Choć Irregular koncentrował się dotychczas na istniejących zagrożeniach, nowa runda finansowania ma na celu rozszerzenie działalności o przewidywanie i zapobieganie nowym, jeszcze nieujawnionym, zagrożeniom. Firma opracowała zaawansowany system symulowanych środowisk, który umożliwia intensywne testowanie modeli AI przed ich publicznym udostępnieniem.

„Posiadamy złożone symulacje sieciowe, w których AI wciela się zarówno w rolę atakującego, jak i obrońcy”, wyjaśnia współzałożyciel Omer Nevo. „Dzięki temu, gdy pojawia się nowy model, możemy szybko zidentyfikować słabe punkty w jego zabezpieczeniach.”

Kwestie bezpieczeństwa stają się priorytetem dla całej branży AI, zwłaszcza w obliczu rosnących możliwości i potencjalnych zagrożeń związanych z zaawansowanymi modelami. Przykładem jest OpenAI, które latem tego roku gruntownie zmodernizowało swoje wewnętrzne procedury bezpieczeństwa, koncentrując się na ochronie przed potencjalnym szpiegostwem korporacyjnym. Jednocześnie, same modele AI stają się coraz skuteczniejsze w wykrywaniu luk w oprogramowaniu, co niesie ze sobą poważne konsekwencje zarówno dla atakujących, jak i obrońców.

Założyciele Irregular uważają, że to dopiero początek wyzwań związanych z bezpieczeństwem, które wynikają z coraz większych możliwości dużych modeli językowych. „Jeśli celem wiodących laboratoriów jest tworzenie coraz bardziej zaawansowanych modeli, naszym celem jest ich zabezpieczenie”, podkreśla Lahav. „To ciągła walka, więc w przyszłości czeka nas jeszcze bardzo dużo pracy.”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *