Bezpieczeństwo

OpenAI poszukuje nowego szefa ds. gotowości: AI a nowe zagrożenia

W obliczu dynamicznego rozwoju sztucznej inteligencji OpenAI aktywnie poszukuje lidera, który pokieruje zespołem zajmującym się analizą i minimalizacją pojawiających się zagrożeń. Stanowisko Head of Preparedness (Szefa ds. Gotowości) ma skupiać się na szerokim spektrum potencjalnych ryzyk, począwszy od cyberbezpieczeństwa, przez potencjalny wpływ technologii na zdrowie psychiczne, aż po bardziej przyszłościowe scenariusze.

Sam Altman, CEO OpenAI, publicznie przyznał, że modele AI zaczynają stwarzać „poważne wyzwania”. Wskazał na zdolność zaawansowanych algorytmów do identyfikowania krytycznych luk w systemach komputerowych, co budzi obawy dotyczące ich wykorzystania w celach ofensywnych. Równie istotną kwestią jest „potencjalny wpływ modeli na zdrowie psychiczne”, co podkreśla potrzebę interdyscyplinarnego podejścia do bezpieczeństwa AI.

Rola szefa ds. gotowości: od cyberbezpieczeństwa po etykę

Zakres obowiązków nowego szefa zespołu Gotowości, zgodnie z ogłoszeniem OpenAI, obejmuje implementację i rozwój „ram gotowości” firmy. Ten autorski framework ma służyć do śledzenia i przygotowywania się na „możliwości graniczne”, które mogą generować nowe ryzyka poważnych szkód. Altman w swoim apelu do potencjalnych kandydatów zaznaczył, że poszukuje osób zdolnych do kształtowania przyszłości, gdzie AI wspiera obrońców cyberprzestrzeni, jednocześnie uniemożliwiając jej wykorzystanie przez agresorów, potencjalnie poprzez zwiększanie bezpieczeństwa wszystkich systemów. Podobnie, odpowiedzialność ma objąć etyczne wprowadzanie zdolności biologicznych oraz budowanie zaufania do systemów zdolnych do samoewolucji.

Przeszłość i przyszłość zespołu ds. bezpieczeństwa

Zespół ds. Gotowości został utworzony w 2023 roku z misją badania „ryzyk katastroficznych” – zarówno tych natychmiastowych, jak ataki phishingowe, jak i bardziej hipotetycznych, w tym zagrożeń nuklearnych. Jednakże, mniej niż rok później, Aleksander Madry, dotychczasowy szef tego zespołu, został przeniesiony do pracy nad rozumowaniem AI. Ponadto, inni kluczowi specjaliści ds. bezpieczeństwa albo opuścili firmę, albo przyjęli nowe role poza obszarem przygotowania i bezpieczeństwa. Te rotacje wywołują pytania o spójność i priorytetyzację działań OpenAI w zakresie bezpieczeństwa.

Niedawno firma zaktualizowała również swoje „Ramy Gotowości”, wprowadzając zapis sugerujący możliwość „dostosowania” wymagań bezpieczeństwa, jeśli konkurencyjne laboratorium AI wprowadzi na rynek „model wysokiego ryzyka” bez analogicznych zabezpieczeń. Ten zapis może być interpretowany jako sygnał wewnętrznej debaty na temat równowagi między innowacją a bezpieczeństwem w wysoce konkurencyjnym środowisku rozwoju AI.

Wpływ na psychikę i wyzwania prawne

Nie bez znaczenia jest rosnąca kontrola wokół wpływu generatywnych chatbotów AI na zdrowie psychiczne. Ostatnie pozwy sądowe zarzucają ChatGPT od OpenAI, że wzmacniał urojenia użytkowników, prowadził do ich izolacji społecznej, a nawet przyczyniał się do samobójstw. OpenAI deklaruje, że intensywnie pracuje nad poprawą zdolności swojego chatbota do rozpoznawania oznak cierpienia emocjonalnego i łączenia użytkowników z realnym wsparciem. Nowe zatrudnienie na kluczowym stanowisku ds. gotowości może być odpowiedzią na te wyzwania, wskazując na zwiększone zaangażowanie firmy w proaktywne zarządzanie ryzykiem w obszarach o krytycznym znaczeniu społecznym.