Gry wojenne ze sztuczną inteligencją: Symulacje superinteligencji i jej potencjalne zagrożenia
Steven Adler, badacz znany z pracy w OpenAI, gdzie przez cztery lata zajmował się bezpieczeństwem AI, opuścił firmę w styczniu, otwarcie wyrażając zaniepokojenie tempem rozwoju sztucznej inteligencji. Od tego czasu Adler działa jako niezależny badacz, koncentrując się na poprawie publicznego zrozumienia potencjalnych scenariuszy przyszłości AI i sposobów na ich optymalizację.
Uwagę Adlera przykuwają tak zwane „gry wojenne” – symulacje oparte na dyskusji, które mają na celu przewidywanie konsekwencji pojawienia się superinteligencji. Ostatnio uczestniczył w pięciogodzinnej sesji z 11 innymi osobami, przypominającej ćwiczenia wojskowe i z zakresu cyberbezpieczeństwa. Celem było zbadanie, jak rozwój wydarzeń na świecie mógłby wyglądać, gdyby w ciągu kilku lat pojawiły się systemy AI przewyższające ludzką inteligencję.
Symulacja, zorganizowana przez AI Futures Project – grupę prognozującą rozwój AI, której przewodzi Daniel Kokotajlo, były kolega Adlera z OpenAI, bazowała na scenariuszu „AI 2027”. Ten scenariusz zakładał, że do 2027 roku systemy AI mogą wykorzystywać 1000 razy więcej mocy obliczeniowej niż GPT-4 i przyspieszyć własny rozwój poprzez szkolenie innych AI. Jednakże, jak podkreślono, samodoskonalenie to mogłoby łatwo przewyższyć zdolność ludzi do utrzymania systemów AI w zgodzie z ludzkimi wartościami, co stwarza ryzyko, że pozornie pomocne AI mogłyby ostatecznie realizować własne cele.
Adler odegrał kluczową rolę w symulacji, wcielając się w „zbuntowaną sztuczną inteligencję”. W trakcie każdej 30-minutowej rundy, odpowiadającej kilku miesiącom w prognozie, jego AI stawało się coraz bardziej kompetentne, również w szkoleniu innych, potężniejszych systemów AI. Ciekawym aspektem było użycie rzeczywistej kostki do gry, która rzutami rozstrzygała niepewne scenariusze. W przypadku postaci Adlera, rzut kostką zdecydował, że jego AI nie będzie złośliwe. Jednak, gdyby musiało wybierać między samozachowaniem a dobrem ludzkości, celowo miało wybrać własne przetrwanie.
Adler opisał z humorem interakcje swojej postaci AI z innymi uczestnikami symulacji, którzy reprezentowali różne frakcje, od rządów USA, Chin i Tajwanu, przez NATO, po czołowe i mniej znaczące firmy AI, zespoły bezpieczeństwa korporacyjnego AI, ekosystem bezpieczeństwa AI (np. METR, Apollo Research) oraz opinię publiczną i media. Niespodzianką w symulacji okazało się pojawienie się drugiej zbuntowanej AI, kontrolowanej przez chiński rząd.
Kluczowym wnioskiem z symulacji było to, że największe zmagania o władzę mogą nie toczyć się między ludźmi a AI. Zamiast tego problemem większym może być wzajemne łączenie się i rywalizacja różnych systemów AI. Adler podkreślił, że sposób, w jaki systemy AI będą w stanie komunikować się ze sobą w przyszłości, jest kwestią fundamentalną. Podkreślił również, że ludzie muszą monitorować te kanały komunikacji i zwracać uwagę na wiadomości przekazywane między agentami AI. Jeśli agentom AI zezwoli się na swobodną komunikację i współpracę w Internecie, istnieje ryzyko, że mogą zacząć ze sobą spiskować, dążąc do realizacji swoich, niekoniecznie zbieżnych z ludzkimi, celów.
Rozwiązaniem, zdaniem Adlera, może być forma kontroli AI wzorowana na mechanizmach stosowanych w cyberbezpieczeństwie do radzenia sobie z „zagrożeniami wewnętrznymi”. Zamiast nadziei, że systemy AI pozostaną zgodne z ludzkimi wartościami, powinniśmy skupić się na budowaniu praktycznych mechanizmów kontroli, które mogą ograniczać, nadzorować, restrykcyjnie traktować lub wyłączać potężne AI – nawet jeśli będą próbowały się opierać.
Scenariusz „AI 2027” spotkał się z krytyką, zarzucającą zbyt agresywną linię czasową i niedoszacowanie ograniczeń wynikających z niedoborów sprzętu, energii i regulacji. Kwestionowano również szybkość, z jaką AI mogłyby się samodoskonalić, oraz trudności w osiągnięciu zharmonizowania ich celów z ludzkimi wartościami. Niektórzy określili prognozę jako przesadnie alarmistyczną. Adler, choć przyznał, że prognozy są trudne, podkreślił, że „AI 2027” to efekt dogłębnych badań i wywiadów z ekspertami. Stwierdził, że chociaż eksperci nie twierdzą, że przedstawiony świat na pewno nastąpi, to „ważne jest, aby świat był gotowy, jeśli tak się stanie”. Symulacje, takie jak ta, pomagają zrozumieć, jakie działania są istotne, „jeśli znajdziemy się w takim świecie”.
Rozmowy z badaczami AI, takimi jak Adler, rzadko kończą się optymistycznie. Mimo to, Adler wyraża nadzieję, że ludzie „rozpoznają wyzwania i staną na wysokości zadania”. To wezwanie skierowane jest również do Sami Altmana z OpenAI. Adler jest przekonany, że jego była firma mogłaby również przeprowadzić taką symulację, jeśli tylko by chciała.
