OpenAI na rozdrożu: Czy zysk przesłoni bezpieczeństwo AI?
OpenAI, organizacja, która miała na celu zapewnić, by sztuczna inteligencja służyła całej ludzkości, staje w obliczu poważnego kryzysu tożsamości. Ujawniony właśnie raport „The OpenAI Files”, będący kompilacją świadectw byłych pracowników, zarzuca firmie odejście od pierwotnej misji. Zamiast skupiać się na bezpieczeństwie i odpowiedzialnym rozwoju superinteligencji, przedsiębiorstwo ma ponoć przedkładać zyski ponad wszelkie inne wartości, dążąc do osiągnięcia ogólnej sztucznej inteligencji (AGI) za wszelką cenę.
Od misji do korporacyjnego giganta
U zarania swojej działalności OpenAI postawiło na innowacyjny model, który miał gwarantować etyczny rozwój AI. Kluczowym elementem była prawnie wiążąca klauzula ograniczająca zwrot dla inwestorów. Miało to zapewnić, że wszelkie korzyści płynące z przełomowych osiągnięć w dziedzinie AI zasilą dobro publiczne, a nie tylko konta garstki miliarderów. Dziś, jak donoszą źródła, obietnica ta jest zagrożona. Ma to być wynik presji ze strony inwestorów, którzy dążą do nieograniczonych zysków.
„Misja non-profit była obietnicą, by postąpić słusznie, gdy stawka będzie wysoka” – mówi w raporcie jeden z byłych członków zespołu, Carroll Wainwright. „Teraz, gdy stawka jest wysoka, struktura non-profit jest porzucana, co oznacza, że obietnica okazała się pusta”. Taka zmiana kursu, zdaniem wielu, to nic innego jak głęboka zdrada pierwotnych założeń.
Kryzys zaufania i rola Sama Altmana
Liczne głosy niezadowolenia wskazują palcem na CEO, Sama Altmana. Krytyka jego sposobu zarządzania nie jest nowa. Już w poprzednich firmach próbowano go odwołać z powodu rzekomo „zwodniczych i chaotycznych” zachowań. Podobne poczucie nieufności towarzyszyło Altmanowi również w OpenAI.
Ilya Sutskever, współzałożyciel OpenAI i wieloletni współpracownik Altmana, doszedł do niepokojącego wniosku: „Nie sądzę, by Sam był osobą, która powinna mieć palec na przycisku dla AGI”. Oceniał, że Altman jest nieuczciwy i generuje chaos – połączenie szczególnie niebezpieczne, gdy mowa o osobie potencjalnie odpowiedzialnej za zbiorową przyszłość.
Niezadowolenie podzielała również Mira Murati, była dyrektor ds. technologii, która przyznała: „Nie czuję się komfortowo z Samem prowadzącym nas do AGI”. Opisała ona niezdrowy schemat, w którym Altman mówił ludziom to, co chcieli usłyszeć, a następnie podważał ich, jeśli stanęli mu na drodze. Tasha McCauley, była członkini zarządu OpenAI, ocenia takie manipulacje jako „niedopuszczalne”, biorąc pod uwagę wagę zagadnień związanych z bezpieczeństwem AI.
Konsekwencje dla kultury organizacyjnej i bezpieczeństwa
Ów kryzys zaufania ma realne konsekwencje dla OpenAI. Wewnętrzne źródła donoszą, że kultura w firmie uległa zmianie, a fundamentalna praca nad bezpieczeństwem AI zeszła na drugi plan, ustępując miejsca na rzecz szybkiego wprowadzania „błyszczących produktów”. Jan Leike, który kierował zespołem odpowiedzialnym za długoterminowe bezpieczeństwo, stwierdził, że „żeglują pod wiatr”, borykając się z brakiem zasobów na kluczowe badania.
Inny były pracownik, William Saunders, zeznał nawet przed Senatem USA, że przez długie okresy zabezpieczenia firmy były tak słabe, iż setki inżynierów mogłyby ukraść najbardziej zaawansowane systemy AI, w tym GPT-4.
Apel byłych pracowników: Ocalić misję OpenAI
Byli pracownicy OpenAI nie pozostawiają firmy samym sobie. Przedstawili konkretny plan działania, mający na celu przywrócenie OpenAI na właściwe tory i ocalenie jej pierwotnej misji.
Wzywają do przywrócenia realnej władzy nienastawionemu na zysk rdzeniowi organizacji, z niezbywalnym prawem weta w kwestiach bezpieczeństwa. Domagają się przejrzystego i uczciwego przywództwa, co implikuje dogłębne śledztwo w sprawie postępowania Sama Altmana.
Postulują wprowadzenie prawdziwie niezależnego nadzoru, by OpenAI nie mogło samodzielnie oceniać swoich działań w zakresie bezpieczeństwa AI. Błagają także o stworzenie kultury, w której pracownicy mogą otwarcie wyrażać obawy bez obawy o utratę pracy czy oszczędności – miejsca z realną ochroną dla sygnalistów.
Wreszcie, nalegają, aby OpenAI dotrzymało pierwotnej obietnicy finansowej: pułapy zysków muszą zostać utrzymane. Cel musi pozostać zgodny z dobrem publicznym, a nie z bezgranicznym prywatnym bogaceniem się.
Ta sytuacja to coś więcej niż wewnętrzny dramat firmy z Doliny Krzemowej. OpenAI tworzy technologię, która może przeobrazić nasz świat w sposób, którego ledwo możemy sobie wyobrazić. Pytanie, które jego byli pracownicy zmuszają nas wszystkich do zadania, jest proste, ale głębokie: komu ufamy w budowaniu naszej przyszłości?
Jak przestrzegała z własnego doświadczenia Helen Toner, była członkini zarządu: „wewnętrzne zabezpieczenia są kruche, gdy w grę wchodzą pieniądze”. Dziś osoby, które najlepiej znają OpenAI, mówią wprost, że te zabezpieczenia są już niemal całkowicie zniszczone.
