Video

YouTube uszczelnia system ochrony wizerunku. Gwiazdy dostają narzędzia do walki z deepfake’ami

Cyfrowy odcisk twarzy zamiast praw autorskich

YouTube wprowadza istotną aktualizację swojego ekosystemu bezpieczeństwa, udostępniając technologię „likeness detection” szerokiemu gronu przedstawicieli branży rozrywkowej. System, który dotychczas był testowany w wąskim gronie twórców, a później polityków i dziennikarzy, działa na zasadach zbliżonych do wysłużonego już Content ID. Tym razem jednak algorytmy nie szukają chronionych prawem autorskim utworów muzycznych czy fragmentów filmów, lecz analizują unikalne cechy wizualne ludzkich twarzy wygenerowanych przez sztuczną inteligencję.

Rozwiązanie to jest bezpośrednią odpowiedzią na plagę deepfake’ów, które coraz częściej służą do budowania fałszywych kampanii reklamowych i oszustw z udziałem znanych osobistości. Co istotne, platforma nie wymaga od celebrytów posiadania aktywnego kanału w serwisie – ochrona opiera się na zgłoszonym do bazy wzorcu wizerunku, który system automatycznie porównuje z nowo przesyłanymi materiałami wideo.

Współpraca z gigantami Hollywood

Wdrożenie nowej funkcji odbywa się przy wsparciu największych graczy na rynku zarządzania talentami, takich jak agencje CAA, UTA czy WME. To sygnał, że branża rozrywkowa traktuje zagrożenia płynące z niekontrolowanego rozwoju AI z najwyższą powagą. Właściciele wizerunku, po wykryciu przez system potencjalnego naruszenia, otrzymują pakiet narzędzi decyzyjnych: od żądania usunięcia filmu ze względu na naruszenie prywatności, po formalne wnioski o naruszenie praw autorskich.

Warto jednak zauważyć, że automatyzacja nie oznacza całkowitej cenzury. YouTube podkreśla, że treści o charakterze parodystycznym lub satyrycznym – o ile mieszczą się w wytycznych serwisu – nie będą usuwane automatycznie. To kluczowe rozróżnienie, które ma chronić wolność wypowiedzi przed zbyt agresywnym działaniem algorytmów filtrujących.

Przyszłość ochrony i wyzwania prawne

Choć obecna faza projektu skupia się na obrazie, YouTube już zapowiada rozszerzenie technologii o detekcję syntetycznego głosu. Równolegle firma angażuje się w lobbing na rzecz federalnych uregulowań w USA, wspierając ustawę NO FAKES Act. Ma ona stworzyć solidne fundamenty prawne dla ochrony wizerunku i głosu przed nieautoryzowaną replikacją przez sztuczną inteligencję.

Mimo rozmachu technologicznego, skuteczność nowych narzędzi wciąż pozostaje pod znakiem zapytania. Przedstawiciele platformy przyznali w marcu, że liczba dotychczasowych usunięć deepfake’ów przy użyciu nowych mechanizmów jest wciąż relatywnie niewielka. Może to sugerować zarówno wczesny etap wdrażania technologii, jak i ogromne wyzwanie, jakim jest identyfikacja coraz bardziej doskonałych materiałów syntetycznych w oceanie treści wgrywanych co minutę do serwisu.