Social mediaVideo

Nowa aplikacja OpenAI Sora zalana deepfake’ami Sama Altmana. Czy czeka nas zalew dezinformacji?

OpenAI weszło na rynek mediów społecznościowych z aplikacją Sora, platformą wideo, która szybko stała się poligonem dla deepfake’ów. Użytkownicy, korzystając z funkcji „cameo”, masowo generują filmy z udziałem CEO OpenAI, Sama Altmana, często w zaskakujących i kontrowersyjnych sytuacjach.

W Sora nie brakuje wizji Sama Altmana karmiącego świnie wyposażone w smartfony, obsługującego Pikachu i Erica Cartmana w Starbucksie, czy uciekającego z kradzionymi kartami graficznymi NVIDIA. Aplikacja, choć robi wrażenie jakością generowanych filmów, budzi poważne pytania o etykę i potencjalne nadużycia.

Kopiowanie cudzej twórczości?

Szczególną popularnością cieszą się filmy jawnie naruszające prawa autorskie. Sora, jak się okazuje, wymaga od właścicieli praw autorskich aktywnego wycofywania swoich treści z użycia w modelu, co wywraca do góry nogami dotychczasowe podejście, w którym twórcy muszą wyraźnie wyrazić zgodę na takie wykorzystanie.

Bezpieczeństwo przede wszystkim?

OpenAI podkreśla swoje zaangażowanie w bezpieczeństwo, oferując kontrolę rodzicielską i możliwość zarządzania tym, kto może tworzyć filmy z naszym „cameo”. Krytycy jednak wskazują, że samo udostępnienie narzędzia do tworzenia realistycznych deepfake’ów jest nieodpowiedzialne.

Autocenzura i jej luki

Aplikacja posiada pewne zabezpieczenia, np. blokuje generowanie filmów z wizerunkiem żyjących osób bez ich zgody. Regulacje te są jednak obchodzone, szczególnie w przypadku postaci historycznych. Sora pozwala na tworzenie realistycznych filmów z udziałem zmarłych polityków, co rodzi pytania o etyczne granice i potencjalne wykorzystanie do celów dezinformacyjnych.

Test dziennikarski z ryzykiem w tle

Jeden z dziennikarzy, w imię eksperymentu, stworzył swój własny „cameo” w Sora, łamiąc własne zasady dotyczące bezpieczeństwa danych. Aplikacja, wykorzystując adres IP i historię z ChatGPT, zaskakująco trafnie dopasowała treść filmu do preferencji użytkownika, demonstrując możliwości personalizacji – ale też potencjalne zagrożenia związane z prywatnością danych.

Przyszłość wideo i zagrożenia

Sora, mimo imponujących możliwości technicznych, staje się symbolem problemów związanych z rozwojem generatywnej AI. Realistyczne deepfake’i, które łatwo tworzyć i rozpowszechniać, mogą stać się potężnym narzędziem dezinformacji, oszustw i nękania. Pytanie, czy OpenAI i inne firmy technologiczne są gotowe na wyzwania związane z etycznym i odpowiedzialnym rozwojem tej technologii, pozostaje otwarte.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *