Wyścig AI: prędkość kontra bezpieczeństwo
Krytyka bezpieczeństwa w sztucznej inteligencji, wyrażona przez badacza OpenAI pod adresem konkurencji, ujawniła wewnętrzną walkę branży. Zapoczątkował ją Boaz Barak, profesor z Harvardu i specjalista ds. bezpieczeństwa w OpenAI, który określił udostępnienie modelu Grok przez xAI jako „całkowicie nieodpowiedzialne”. Nie z powodu kontrowersyjnych funkcji, lecz braku fundamentalnych elementów przejrzystości, takich jak publiczna karta systemowa czy szczegółowe oceny bezpieczeństwa.
Był to wyraźny i konieczny apel. Jednak szczere spostrzeżenia Calvina French-Owena, byłego inżyniera OpenAI, opublikowane zaledwie trzy tygodnie po jego odejściu z firmy, rzucają światło na drugą stronę medalu. French-Owen twierdzi, że w OpenAI znaczna liczba osób faktycznie pracuje nad bezpieczeństwem, koncentrując się na realnych zagrożeniach, takich jak mowa nienawiści, broń biologiczna czy samookaleczenia. Zauważył jednak: „Większość wykonanej pracy nie jest publikowana” i dodał, że OpenAI „naprawdę powinno zrobić więcej, aby to upublicznić”.
W tym miejscu prymitywna narracja o dobrym graczu ganiącym złego rozpada się. W jej miejsce pojawia się prawdziwy, ogólnobranżowy dylemat. Cała branża AI jest uwikłana w tak zwany „paradoks bezpieczeństwa i prędkości” – głęboki, strukturalny konflikt między potrzebą osiągnięcia zawrotnej prędkości w dążeniu do konkurencyjności a moralną koniecznością zachowania ostrożności dla zachowania bezpieczeństwa.
French-Owen sugeruje, że OpenAI znajduje się w stanie kontrolowanego chaosu. Firma w ciągu zaledwie jednego roku potroiła swoją kadrę, osiągając ponad 3000 pracowników, co skutkuje tym, że „wszystko się psuje, gdy skalujesz tak szybko”. Ta chaotyczna energia jest napędzana ogromną presją „wyścigu trzech koni” o AGI (Artificial General Intelligence) z Google i Anthropic. Efektem jest kultura niesamowitej szybkości, ale także tajemnicy.
Weźmy pod uwagę stworzenie Codax, agenta kodującego OpenAI. French-Owen nazywa ten projekt „szalonym sprintem”, podczas którego mały zespół stworzył rewolucyjny produkt od podstaw w zaledwie siedem tygodni. To podręcznikowy przykład osiągnięcia zawrotnej prędkości. French-Owen opisuje pracę do późnych godzin nocnych, a nawet w weekendy, aby zrealizować projekt. Jest to ludzki koszt tej prędkości. W środowisku, które porusza się tak szybko, czy dziwi, że powolna, metodyczna praca nad publikacją badań dotyczących bezpieczeństwa AI wydaje się dystrakcją od wyścigu?
Ten paradoks nie wynika ze złej woli, lecz z wzajemnie oddziałujących, potężnych sił. Istnieje oczywista presja konkurencyjna, by być pierwszym. Istnieje także DNA kulturowe tych laboratoriów, które powstały jako luźne grupy „naukowców i majsterkowiczów” i cenią sobie przełomowe odkrycia ponad metodyczne procesy. Pozostaje również prosty problem pomiaru: łatwo jest oszacować szybkość i wydajność, ale niezwykle trudno jest zmierzyć katastrofę, której udało się zapobiec.
We współczesnych zarządach widoczne metryki prędkości niemal zawsze będą głośniejsze niż niewidoczne sukcesy w dziedzinie bezpieczeństwa. Jednak aby pójść naprzód, nie chodzi o wzajemne obarczanie się winą – konieczna jest zmiana fundamentalnych zasad gry.
Musimy na nowo zdefiniować, co to znaczy wprowadzić produkt na rynek, czyniąc publikację analizy bezpieczeństwa tak integralną częścią procesu, jak sam kod. Potrzebujemy ogólnobranżowych standardów, które zapobiegną karaniu pojedynczych firm za ich staranność, przekształcając bezpieczeństwo z dodatkowej funkcji w wspólną, nienegocjowalną podstawę. Przede wszystkim jednak musimy pielęgnować kulturę w laboratoriach AI, gdzie każdy inżynier – nie tylko dział bezpieczeństwa – czuje się odpowiedzialny. Wyścig o stworzenie AGI nie polega na tym, kto dotrze pierwszy; chodzi o to, jak tam dotrzemy. Prawdziwym zwycięzcą nie będzie firma, która jest tylko najszybsza, ale ta, która udowodni światu, że ambicja i odpowiedzialność mogą i muszą iść w parze.
