BiznesEtyka AI

Dylemat spin doktora: Chris Lehane i niemożliwa misja w OpenAI

Chris Lehane to mistrz w zacieraniu złego wrażenia i naprawiania wizerunku. Pracował jako rzecznik prasowy Ala Gore’a w czasach Clintona, a w Airbnb zarządzał kryzysami regulacyjnymi na całym świecie. Teraz mierzy się z być może najtrudniejszym wyzwaniem w karierze: jako wiceprezes ds. globalnej polityki w OpenAI ma przekonać świat, że firma naprawdę dba o demokratyzację sztucznej inteligencji. Jednocześnie OpenAI zachowuje się coraz bardziej jak typowy gigant technologiczny, który obiecywał być inny.

Podczas konferencji Elevate w Toronto, autor artykułu miał okazję porozmawiać z Lehane’em przez 20 minut. Próbował wydobyć od niego konkrety i skonfrontować go z sprzecznościami niszczącymi starannie budowany wizerunek OpenAI. Zadanie nie było łatwe, ponieważ Lehane jest naprawdę dobry w tym, co robi: jest sympatyczny, brzmi rozsądnie, przyznaje się do niewiedzy, a nawet mówi o nocnych lękach dotyczących tego, czy jego praca rzeczywiście przyniesie korzyści ludzkości.

Niestety, dobre intencje nie wystarczą, gdy firma pozywa krytyków, zużywa ogromne ilości wody i energii w regionach o słabej gospodarce i przywraca do życia zmarłe gwiazdy, by umocnić swoją pozycję na rynku.

Problem z Sora i kwestie praw autorskich

Sercem problemu jest Sora, narzędzie do generowania wideo, które zostało uruchomione z wykorzystaniem materiałów chronionych prawami autorskimi. Był to odważny ruch ze strony firmy, która jest już pozwana przez New York Timesa, Toronto Star i wielu wydawców. Z biznesowego i marketingowego punktu widzenia był to jednak genialny pomysł. Aplikacja, dostępna na zaproszenie, szybko wspięła się na szczyty popularności, gdy użytkownicy zaczęli tworzyć w niej cyfrowe wersje samych siebie, CEO OpenAI Sama Altmana, postaci takich jak Pikachu, Mario, Cartman z „South Parku” i zmarłych celebrytów, takich jak Tupac Shakur.

Zapytany o powody wypuszczenia najnowszej wersji Sory z takimi postaciami, Lehane odpowiedział standardowo: Sora to „technologia ogólnego zastosowania”, taka jak elektryczność czy prasa drukarska, demokratyzująca kreatywność dla osób bez talentu i zasobów. Nawet on – jak sam twierdzi, kreatywne zero – może teraz tworzyć filmy.

Pominięto jednak fakt, że OpenAI początkowo oferowało właścicielom praw możliwość rezygnacji z wykorzystywania ich dzieł do trenowania Sory, co nie jest standardową praktyką w przypadku praw autorskich. Dopiero gdy OpenAI zauważyło, że użytkownicy chętnie korzystają z chronionych obrazów, firma „ewoluowała” w kierunku modelu opt-in. To nie jest iteracja, tylko sprawdzanie, na ile można sobie pozwolić.

Sytuacja ta przypomina spór wydawców, którzy oskarżają OpenAI o wykorzystywanie ich twórczości do trenowania modeli bez dzielenia się zyskami. Zapytany o tę kwestię, Lehane powołał się na doktrynę „dozwolonego użytku”, która ma równoważyć prawa twórców z dostępem społeczeństwa do wiedzy, nazywając ją „tajną bronią amerykańskiej dominacji technologicznej”.

Problemy z infrastrukturą i zużyciem energii

Kolejną kwestią jest infrastruktura. OpenAI buduje już kampus centrów danych w Teksasie i niedawno rozpoczęła budowę kolejnego, ogromnego centrum w Ohio, we współpracy z Oracle i SoftBankiem. Lehane porównuje dostęp do AI do upowszechnienia elektryczności, twierdząc, że ci, którzy zyskali do niej dostęp później, wciąż nadrabiają zaległości. Jednocześnie projekt Stargate OpenAI zdaje się celować w te same, znajdujące się w trudnej sytuacji ekonomicznej regiony, jako lokalizacje dla swoich obiektów o ogromnym zapotrzebowaniu na wodę i energię.

Zapytany o to, czy te społeczności odniosą korzyści, czy tylko zapłacą rachunki, Lehane zaczął mówić o gigawatach i geopolityce. OpenAI potrzebuje około gigawata energii tygodniowo. Chiny uruchomiły w zeszłym roku 450 gigawatów i 33 elektrownie jądrowe. Jeśli demokracje chcą demokratycznej AI, muszą konkurować. „Optymista we mnie mówi, że to zmodernizuje nasze systemy energetyczne” – powiedział, malując wizję reindustrializowanej Ameryki z przekształconymi sieciami energetycznymi.

To inspirujące, ale nie odpowiada na pytanie, czy mieszkańcy Ohio i Teksasu zobaczą wzrost rachunków za media, podczas gdy OpenAI generuje filmy z Johnem F. Kennedym i The Notorious B.I.G. (Generowanie wideo jest najbardziej energochłonną formą AI).

Etyczne dylematy i kryzys sumienia w OpenAI

Przykładem problemów etycznych jest sprawa Zeldy Williams, która dzień przed wywiadem błagała na Instagramie, by przestano wysyłać jej generowane przez AI filmy z jej zmarłym ojcem, Robinem Williamsem. „To nie jest sztuka” – pisała. „Robicie obrzydliwe, przetworzone hot dogi z życia ludzkiego”.

Zapytany o to, jak firma godzi tego rodzaju krzywdę z misją, Lehane zaczął mówić o procesach, odpowiedzialnym projektowaniu, ramach testowych i partnerstwach rządowych. „Nie ma na to gotowej recepty, prawda?”

W pewnych momentach Lehane okazywał bezradność, mówiąc, że budzi się o 3 nad ranem, martwiąc się o demokratyzację, geopolitykę i infrastrukturę. „Wiążą się z tym ogromne obowiązki”.

Niezależnie od tego, czy te momenty były wyreżyserowane, brzmiały szczerze. Autor artykułu opuścił Toronto z wrażeniem, że był świadkiem mistrzowskiego pokazu politycznego PR-u. Lehane lawirował między trudnymi pytaniami o decyzje firmy, z którymi być może sam się nie zgadza. Następnie wydarzyło się coś, co rzuciło cień na tę narrację.

Prawnik Nathan Calvin, zajmujący się polityką AI w organizacji non-profit Encode AI, ujawnił, że w tym samym czasie, gdy autor artykułu rozmawiał z Lehane’em w Toronto, OpenAI wysłało do jego domu w Waszyngtonie szeryfa z wezwaniem do sądu. Chodziło o jego prywatne wiadomości z kalifornijskimi ustawodawcami, studentami i byłymi pracownikami OpenAI.

Calvin oskarża OpenAI o stosowanie taktyk zastraszania w związku z nowymi przepisami dotyczącymi AI, kalifornijską ustawą SB 53. Twierdzi, że firma wykorzystała spór prawny z Elonem Muskiem jako pretekst do atakowania krytyków, sugerując, że Encode jest potajemnie finansowane przez Muska. Calvin zaprzecza temu i twierdzi, że sprzeciwiał się sprzeciwowi OpenAI wobec SB 53 i że gdy zobaczył twierdzenie firmy, że „pracowała nad ulepszeniem ustawy”, dosłownie wybuchnął śmiechem. W mediach społecznościowych nazwał Lehane’a „mistrzem politycznych ciemnych sztuk”.

Co ważniejsze, nawet pracownicy OpenAI mają konflikt z tym, czym się stają. Wielu obecnych i byłych pracowników wyraziło w mediach społecznościowych swoje obawy po premierze Sory 2. Boaz Barak, badacz z OpenAI i profesor Harvardu, napisał, że Sora 2 jest „technicznie niesamowita, ale przedwczesne jest gratulowanie sobie uniknięcia pułapek innych aplikacji społecznościowych i deepfake’ów”.

Josh Achiam – szef ds. misji w OpenAI – napisał na Twitterze coś jeszcze bardziej niezwykłego o oskarżeniach Calvina. Zaznaczył, że jego komentarze „mogą stanowić zagrożenie dla całej mojej kariery”, po czym napisał o OpenAI: „Nie możemy robić rzeczy, które czynią nas przerażającą siłą, zamiast cnotliwą. Mamy obowiązek i misję wobec całej ludzkości. Poprzeczka, aby spełnić ten obowiązek, jest niezwykle wysoka”.

Krytyczny moment. Szef w OpenAI publicznie kwestionujący, czy jego firma staje się „przerażającą siłą, zamiast cnotliwą”, to coś innego niż komentarz konkurenta czy pytanie dziennikarza. To ktoś, kto zdecydował się pracować w OpenAI, wierzy w jej misję, a teraz przyznaje się do kryzysu sumienia, pomimo ryzyka zawodowego.

Można być najlepszym specjalistą od PR-u w branży technologicznej, mistrzem w rozwiązywaniu niemożliwych sytuacji, a i tak pracować dla firmy, której działania coraz bardziej kłócą się z głoszonymi wartościami – sprzeczności, które mogą się nasilać w miarę jak OpenAI zbliża się do sztucznej inteligencji ogólnej.

Rodzi się pytanie, czy Chris Lehane zdoła sprzedać misję OpenAI. Ważniejsze jest jednak, czy inni – w tym przede wszystkim pracownicy firmy – w nią jeszcze wierzą.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *