Social mediaVideo

YouTube uruchamia narzędzie do wykrywania i usuwania treści AI z wizerunkiem twórców

YouTube ogłosił start pierwszej fali wdrożenia technologii wykrywania podobieństwa (likeness detection) dla kwalifikujących się twórców z YouTube Partner Program. Po etapie pilotażowym narzędzie ma umożliwić autorom identyfikację i żądanie usunięcia materiałów generowanych przez sztuczną inteligencję, które wykorzystują ich wizerunek — zarówno twarz, jak i głos.

Jak wygląda procedura

Twórca, który otrzyma dostęp, rozpoczyna onboarding w zakładce «Likeness» na koncie. Musi wyrazić zgodę na przetwarzanie danych oraz przejść krótką weryfikację tożsamości: skan QR widoczny na ekranie przenosi do strony, gdzie wymagane są dokument tożsamości oraz krótki filmik selfie wykonany telefonem. Po pozytywnym zatwierdzeniu użytkownik zyskuje panel, w którym widoczne są materiały zidentyfikowane jako zawierające jego podobiznę.

W odnalezionych przypadkach twórca może złożyć wniosek o usunięcie treści zgodnie z zasadami prywatności YouTube, wystąpić z żądaniem na podstawie praw autorskich lub zdecydować o archiwizacji pliku. W każdej chwili możliwe jest wypisanie się z programu — skanowanie zostanie wstrzymane po 24 godzinach od rezygnacji.

Dlaczego YouTube to wprowadza

Ruch serwisu jest odpowiedzią na narastający problem nadużyć technologii generatywnej. W ostatnich latach pojawiały się przypadki, w których głosy lub wizerunki twórców były klonowane i wykorzystywane do promocji produktów lub rozpowszechniania dezinformacji. Przykładem jest sprawa, gdy firma Elecrow wykorzystała syntetyczny głos YouTubera Jeffa Geerlinga do promocji swoich produktów.

YouTube od dłuższego czasu współpracuje z zewnętrznymi partnerami w celu ograniczenia takich praktyk — w zeszłym roku serwis nawiązał współpracę z agencją Creative Artists Agency (CAA). Dodatkowo firma publicznie poparła propozycję legislacyjną określaną jako NO FAKES ACT, mającą przeciwdziałać podszywaniu się pod czyjś wizerunek lub głos przy użyciu AI.

Ograniczenia i ryzyka

Choć narzędzie to krok w stronę ochrony twórców, warto podkreślić kilka istotnych zastrzeżeń. Po pierwsze, wdrożenie dotyczy tylko kwalifikujących się uczestników programu partnerskiego, co pozostawia poza ochroną dużą grupę twórców i osób publicznych działających poza tymi ramami. Po drugie, systemy automatycznego wykrywania rzadko są wolne od błędów — mogą występować zarówno fałszywe alarmy, jak i przeoczenia prawdziwych deepfake’ów.

Najbardziej wrażliwy punkt to jednak sam proces weryfikacji: wymóg przesłania dokumentu tożsamości i filmiku selfie oznacza przekazanie serwisowi danych biometrycznych lub ich ekwiwalentu. Choć YouTube informuje o konieczności zgody na przetwarzanie, nie wszystkie szczegóły związane z przechowywaniem, zabezpieczeniem i czasem retencji tych danych są powszechnie znane — co budzi uzasadnione obawy o prywatność i możliwe nadużycia.

Co dalej

Udostępnienie narzędzia to faza pierwsza — YouTube będzie prawdopodobnie skalować rozwiązanie i udoskonalać modele detekcji, zwłaszcza w odpowiedzi na zgłoszenia i odwołania od użytkowników. Kluczowe będą przejrzyste zasady dotyczące przechowywania danych weryfikacyjnych, mechanizmy odwoławcze przy fałszywych wykryciach oraz rozszerzenie ochrony poza wąsko zdefiniowany program partnerski.

W praktyce skuteczność tej inicjatywy zależeć będzie od równowagi między technologiczną precyzją a standardami ochrony prywatności — oraz od tempa, w jakim ustawodawcy przyjmą regulacje, które jasno zdefiniują, co jest dozwolone przy użyciu narzędzi generatywnych. Na razie YouTube daje twórcom narzędzia do reagowania, ale pełne rozwiązanie problemu misuses AI wciąż pozostaje kwestią wieloaspektową i daleką od zamknięcia.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *