Sam Altman tłumaczy exodus specjalistów od bezpieczeństwa: kontekst ważniejszy od zasad
Przez miesiące branża technologiczna głowiła się nad przyczynami rozpadu zespołu do spraw długoterminowych zagrożeń w OpenAI oraz odejściem kluczowych postaci, w tym współzałożyciela Ilii Sutskevera. Nowy profil Sama Altmana opublikowany w „The New Yorker” rzuca na tę kwestię bezpośrednie światło. Wyjaśnienie lidera OpenAI jest zaskakująco szczere: jego „vibes”, czyli intuicyjne podejście do rozwoju technologii, po prostu nie współgrają z rutynowymi procedurami bezpieczeństwa AI.
Kultura szybkości kontra rygor etyczny
To pozornie błahe stwierdzenie kryje w sobie głęboki podział, który doprowadził do powstania Anthropic – największego rywala OpenAI, założonego przez pracowników zaniepokojonych komercyjnym kursem firmy. Altman sugeruje, że tradycyjne podejście do bezpieczeństwa jest zbyt sztywne w obliczu dynamiki zmian. Jako dowód swojej elastyczności przywołuje rok 2019, kiedy OpenAI alarmowało o zagrożeniach płynących z pełnego wydania modelu GPT-2. Kilka lat później te same obawy ustąpiły miejsca strategii masowego, darmowego dostępu do znacznie potężniejszych narzędzi. Dla krytyków to dowód na brak spójności; dla Altmana – niezbędna adaptacja do tempa postępu.
Polityka i pragmatyzm w Dolinie Krzemowej
Napięcia wewnątrz firmy eskalowały po nawiązaniu współpracy z Pentagonem. Gdy pracownicy zaczęli kwestionować etyczne implikacje zaangażowania w kontrakty wojskowe, odpowiedź CEO była bezlitosna. Altman uciął dyskusję stwierdzeniem, że rola inżynierów nie polega na ocenianiu zasadności interwencji militarnych w Iranie czy Wenezueli. To jasny sygnał: OpenAI przestało być laboratorium badawczym o ambicjach demokratycznych, a stało się podmiotem realizującym twarde cele geopolityczne i biznesowe.
Lider w czasach niepewności
Obraz Altmana, jaki wyłania się z ponad setki wywiadów przeprowadzonych przez autora profilu, to portret człowieka skrajnie polaryzującego. Z jednej strony dąży on do bycia lubianym, z drugiej – według byłych członków zarządu – wykazuje niemal całkowitą obojętność na konsekwencje własnych manipulacji. Altman broni swojego stylu przywództwa, argumentując, że w dziedzinie zmieniającej się z dnia na dzień, uparte trzymanie się raz przyjętych dogmatów byłoby błędem. Pytanie brzmi, czy w pogoni za zwinnością OpenAI nie zgubiło gdzieś fundamentu zaufania, na którym pierwotnie budowano obietnicę bezpiecznej sztucznej inteligencji.
