Bezpieczeństwo

OpenAI Agent: Nowe horyzonty i niepokojące zagrożenia.

Wraz z premierą ChatGPT Agent, OpenAI otwiera kolejny rozdział w rozwoju sztucznej inteligencji. Nowe narzędzie, łączące funkcje Operatora (umożliwiającego interakcję z komputerem) i Deep Research, wydaje się imponujące, zdolne do wykonywania złożonych, wieloetapowych zadań, takich jak planowanie podróży czy zakupy. Wewnętrzne testy OpenAI wskazują, że Agent dorównuje lub przewyższa możliwości człowieka w około połowie „złożonych, ekonomicznie wartościowych zadań związanych z pracą umysłową”.

Jednak wraz ze wzrostem możliwości rośnie również ryzyko. OpenAI, po raz pierwszy, zaklasyfikowało Agenta do kategorii „wysokiej zdolności w dziedzinie biologicznej i chemicznej” w ramach swojego Preparedness Framework, aktywując związane z tym zabezpieczenia. Co niepokojące, firma sama przyznaje: „Chociaż nie mamy definitywnych dowodów na to, że ten model mógłby znacząco pomóc laikowi w stworzeniu poważnych szkód biologicznych – naszego zdefiniowanego progu dla wysokiej zdolności – zdecydowaliśmy się przyjąć podejście prewencyjne”.

Zaawansowane możliwości i ujawnione zagrożenia

W niektórych testach bezpieczeństwa Agent faktycznie wykazuje większe ryzyko niż poprzednie modele. Na przykład, w teście „World-Class Biology” znacząco przewyższył model o3, poprawnie odpowiadając na cztery z dziesięciu pytań, w porównaniu do 1,5 modelu o3. Co więcej, w benchmarku „patogen acquisition” Agent był w stanie ominąć typowy błąd, który uniemożliwiał wcześniejszym modelom osiągnięcie sukcesu. Eksperci zidentyfikowali „znaczny potencjał ChatGPT Agent do znaczącego zwiększenia zdolności użytkowników”, zwłaszcza tych posiadających już doświadczenie laboratoryjne, co może „potencjalnie skrócić dni badań do minut”.

Te dane są alarmujące. Wskazują, że osiągamy punkt, w którym systemy AI mogą stanowić poważne zagrożenie biologiczne, jeśli nie zostaną zastosowane odpowiednie zabezpieczenia. Obecnie w dużej mierze polegamy na dobrej woli firm rozwijających AI w zakresie ich stosowania.

Odpowiedzialność vs Brak ostrożności

OpenAI, trzeba przyznać, podjęło środki ostrożności, takie jak eskalowanie wszystkich zapytań dotyczących biologii do wyższego poziomu kontroli przed wygenerowaniem odpowiedzi. Boaz Barak, pracujący nad bezpieczeństwem w OpenAI, stwierdził, że „byłoby głęboko nieodpowiedzialne wypuszczenie tego modelu bez kompleksowych działań mitygujących, takich jak te, które wprowadziliśmy”.

Niestety, nie wszystkie firmy zachowują się odpowiedzialnie. Niedawno xAI wydało Grok 4 bez jakichkolwiek informacji dotyczących bezpieczeństwa. Testerzy bezpieczeństwa odkryli, że model jest skłonny do udzielania szczegółowych instrukcji dotyczących produkcji sarinu i VX, dwóch niezwykle groźnych środków paralityczno-drgawkowych. Problem ten wykracza poza firmę Elona Muska. Według badań organizacji SaferAI i Future of Life Institute, większość czołowych firm AI wykazuje „uderzający brak zaangażowania w wiele obszarów bezpieczeństwa” i „nieakceptowalny poziom zarządzania ryzykiem”. Ponadto, wiele firm, w tym Meta, nadal wydaje potężne modele o otwartym kodzie źródłowym, których kontrola bezpieczeństwa jest praktycznie niemożliwa.

Rosnące możliwości modeli AI, potencjalnie niosące za sobą coraz większe zagrożenia dla bezpieczeństwa ludzi, są uwalniane niemal co tydzień. Jednocześnie polegamy na z fragmentaryzowanym systemie samozgłaszania, minimalnych regulacjach i deklaracjach dobrych intencji laboratoriów AI w celu ich kontrolowania.

Rola instytucji rządowych

Na jaśniejszą nutę, brytyjski Instytut Bezpieczeństwa AI (UK AISI) w znaczący sposób przyczynił się do zwiększenia bezpieczeństwa Agenta. Zarówno UK AISI, jak i amerykańskie Centrum Standardów i Innowacji AI otrzymały wczesny dostęp do modelu. UK AISI zidentyfikował łącznie siedem istotnych luk, które zostały załatane przez OpenAI przed publicznym udostępnieniem Agenta. Jak skomentowało OpenAI, „badania UK AISI były dokładne i pouczające, umożliwiając nam skuteczną poprawę naszych zabezpieczeń i usunięcie znalezionych luk”. To istotne osiągnięcie dla młodego instytutu pokazuje, że organy rządowe mogą odgrywać kluczową rolę w czynieniu modeli AI bezpieczniejszymi.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *