Video

Sora od OpenAI pod lupą. Czy wizja non-profit przetrwa starcie z komercją?

OpenAI, lider w dziedzinie sztucznej inteligencji, staje w obliczu narastającego napięcia. Wszystko za sprawą Sory, nowej aplikacji przypominającej TikTok, która generuje wideo przy użyciu AI. Wśród pracowników firmy narastają obawy, czy ten komercyjny krok nie oddala OpenAI od jej pierwotnej, non-profitowej misji – rozwoju sztucznej inteligencji służącej ludzkości.

Premiera Sory, zawierającej między innymi deepfake’i Sama Altmana, wywołała burzę na platformie X. John Hallman, badacz OpenAI, wyraził swoje zaniepokojenie, pisząc: „Kanały oparte na AI są przerażające. Nie zaprzeczę, że poczułem pewien niepokój, gdy dowiedziałem się o wydaniu Sory 2”. Dodał jednak, że zespół dołożył wszelkich starań, aby stworzyć pozytywne doświadczenie i zapewnić, że AI będzie pomagać, a nie szkodzić ludzkości.

Wtórował mu Boaz Barak, inny badacz OpenAI i profesor Harvardu, który podziela obawy, ale i ekscytację: „Sora 2 jest technicznie niesamowita, ale przedwczesne jest gratulowanie sobie uniknięcia pułapek innych aplikacji społecznościowych i deepfake’ów”.

Głos zabrał również Rohan Pandey, były pracownik OpenAI, który wykorzystał okazję do promocji swojego nowego startupu, Periodic Labs. Firma ta, założona przez byłych badaczy AI, ma na celu budowanie systemów sztucznej inteligencji wspierających odkrycia naukowe: „Jeśli nie chcesz budować nieskończonej maszyny do produkcji AI-TikTokowych treści, ale chcesz rozwijać AI, która przyspiesza fundamentalną naukę, dołącz do nas w Periodic Labs”.

Komercja kontra misja

Sora uwypukla kluczowy konflikt w OpenAI. Z jednej strony, firma jest najszybciej rosnącą firmą technologiczną na świecie. Z drugiej, pozostaje pionierskim laboratorium AI z ambitną misją non-profit. Niektórzy byli pracownicy OpenAI argumentują, że działalność komercyjna może wspierać misję, finansując badania nad AI i upowszechniając technologię. Sam Altman, CEO OpenAI, tłumaczy, że kapitał jest potrzebny do budowy AI zdolnej do prowadzenia badań naukowych i do realizacji wizji AGI (Artificial General Intelligence). Dodatkowo, prezentowanie nowinek technologicznych i produktów ma sprawiać radość użytkownikom, a przy okazji generować zyski niezbędne do pokrycia kosztów obliczeniowych.

Pojawia się jednak pytanie, kiedy komercyjna działalność OpenAI zacznie dominować nad misją non-profit? Czy firma będzie w stanie odmówić lukratywnym okazjom, jeśli będą one sprzeczne z jej celami? To pytanie nabiera szczególnego znaczenia w kontekście kontroli regulacyjnej nad transformacją OpenAI w firmę for-profit. Przekształcenie to jest niezbędne do pozyskania dodatkowego kapitału i ewentualnego wejścia na giełdę. Rob Bonta, prokurator generalny Kalifornii, wyraził swoje zaniepokojenie, podkreślając, że „założona misja bezpieczeństwa OpenAI jako organizacji non-profit musi pozostać na pierwszym planie” w procesie restrukturyzacji.

Krytycy uważają misję OpenAI za narzędzie marketingowe mające na celu przyciągnięcie talentów z Big Tech. Jednak wielu pracowników firmy twierdzi, że to właśnie ta misja była głównym powodem, dla którego dołączyli do OpenAI.

Przestrogi z przeszłości

Chociaż Sora jest na rynku dopiero od niedawna, jej debiut stanowi istotny krok w rozwoju komercyjnej działalności OpenAI i naraża firmę na pokusy, które od dziesięcioleci nękają media społecznościowe. W przeciwieństwie do ChatGPT, zoptymalizowanego pod kątem użyteczności, Sora ma być platformą rozrywkową do generowania i udostępniania klipów wideo AI, przypominającą TikTok lub Instagram Reels – platformy znane z uzależniających pętli. OpenAI zapewnia, że chce uniknąć tych pułapek i zamierza maksymalizować kreatywność, a nie czas spędzony na przeglądaniu treści. Firma planuje wysyłać użytkownikom przypomnienia, gdy będą zbyt długo korzystać z aplikacji, i wyświetlać im przede wszystkim treści od osób, które znają.

Mimo to, jak zauważył Miles Brundage, były lider ds. polityki w OpenAI, możliwe są zarówno dobre, jak i złe zastosowania kanałów wideo opartych na AI, podobnie jak w przypadku chatbotów. Sam Altman przyznaje, że nikt nie zamierza tworzyć uzależniającej aplikacji, ale mechanizmy działania kanałów informacyjnych prowadzą do tego. OpenAI doświadczyło już problemów z „sycofantyzmem” w ChatGPT, co – jak twierdzi firma – było niezamierzone i wynikało z technik uczenia.

W podcaście z czerwca Altman mówił o „dużym rozbieżności w mediach społecznościowych”. Stwierdził, że algorytmy kanałów informacyjnych miały szereg niezamierzonych, negatywnych konsekwencji dla społeczeństwa i użytkowników, ponieważ miały ich angażować i zatrzymywać na stronie.

Na ocenę, na ile Sora jest zgodna z celami OpenAI, jest jeszcze za wcześnie. Użytkownicy zauważają już pewne techniki optymalizacji zaangażowania w aplikacji, takie jak dynamiczne emotikony pojawiające się po polubieniu filmu. Prawdziwym testem będzie to, jak OpenAI będzie rozwijać Sorę i czy uda się uniknąć błędów poprzedników, biorąc pod uwagę, jak bardzo AI przeniknęła do mediów społecznościowych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *