Social media

YouTube zaostrza politykę wobec treści masowych i powtarzalnych – czy to odpowiedź na zalew AI?

Z początkiem lipca YouTube wprowadzi zaktualizowane zasady Programu Partnerskiego (YPP), które mają na celu dokładniejsze określenie, jakie treści kwalifikują się do monetyzacji, a jakie nie. Chociaż oficjalna retoryka platformy koncentruje się na doprecyzowaniu wymagań dotyczących „oryginalnych” i „autentycznych” materiałów, niezależni obserwatorzy interpretują te zmiany jako bezpośrednią reakcję na lawinowy wzrost niskiej jakości filmów, których tworzenie ułatwiła sztuczna inteligencja.

Według dokumentacji pomocy YouTube, platforma od dawna wymagała od twórców dostarczania unikalnych treści. Nadchodząca aktualizacja, wchodząca w życie 15 lipca, ma dostarczyć bardziej precyzyjnych wytycznych, pomagając twórcom zrozumieć, czym dokładnie jest „nieautentyczny” materiał w obecnym krajobrazie cyfrowym. Rene Ritchie, szef ds. relacji z twórcami w YouTube, stara się uspokoić obawy, określając zmiany jako „niewielką aktualizację” dotychczasowych zasad YPP. Jak to ujął w niedawnym wideo, chodzi o lepsze identyfikowanie treści „masowo produkowanych” lub „powtarzalnych”, które od lat były wykluczane z monetyzacji, ponieważ są postrzegane przez widzów jako spam.

Mimo zapewnień Ritchiego, nie sposób zignorować kontekstu, w jakim pojawiają się te zmiany. Wzrost dostępności narzędzi generatywnej AI sprawił, że tworzenie „masowo produkowanych” i „powtarzalnych” treści stało się niezwykle łatwe i tanie. Termin „AI slop” (dosłownie „papka AI”) coraz lepiej oddaje naturę niskiej jakości materiałów tworzonych za pomocą sztucznej inteligencji, często polegających na nakładaniu generowanego głosu na zdjęcia, fragmenty wideo czy inne przetworzone treści. Obserwujemy kanały z milionami subskrybentów, które w całości opierają się na muzyce generowanej przez AI, czy też fałszywe, generowane przez AI relacje z wydarzeń, które osiągają milionowe wyświetlenia. Przykładem może być sprawa serii kryminalnej, która stała się viralem, by później okazać się w pełni stworzoną przez AI, co ujawnił 404 Media.

Nawet wizerunek CEO YouTube, Neala Mohana, został wykorzystany w oszustwie phishingowym generowanym przez AI na samej platformie, mimo istnienia narzędzi do zgłaszania deepfake’ów. Choć YouTube może bagatelizować zbliżające się zmiany, nazywając je jedynie doprecyzowaniem, rzeczywistość jest taka, że rosnąca obecność i monetyzacja niskiej jakości treści generowanych przez AI może poważnie nadszarpnąć reputację i wartość platformy. Polityka ta wydaje się zatem dążeniem do klarownego uregulowania zasad, które pozwolą na masowe usuwanie twórców „papki AI” z programu partnerskiego, chroniąc w ten sposób ekosystem YouTube przed degradacją.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *