Społeczeństwo

Rasistowskie treści zalewają TikToka. Czy bariery bezpieczeństwa AI są zawodne?

Majowa premiera Google Veo 3, innowacyjnego generatora wideo, miała zwiastować nową erę w tworzeniu treści wizerunkowych. Rzeczywistość okazała się jednak bardziej złożona i problematyczna. Pomimo zaawansowanej jakości generowanych obrazów, zdolność narzędzia do tworzenia łudząco prawdziwych wizualizacji została szybko wykorzystana do szerzenia treści nienawistnych.

Raporty, między innymi te przygotowane przez MediaMatters, ujawniają, że TikTok został zalany filmami generowanymi przez Veo 3, które promują rasistowskie i antysemickie stereotypy. W szczególności, treści atakują osoby czarnoskóre, przedstawiając je w krzywdzący sposób – jako stereotypowych przestępców, nieobecnych rodziców czy też ośmieszającymi, rasistowskimi wizerunkami. Nie brakuje również ataków na imigrantów oraz społeczność żydowską.

Cechą charakterystyczną tych krótkich, maksymalnie ośmiosekundowych klipów jest widoczny znak wodny „Veo”, co jednoznacznie wskazuje na źródło ich pochodzenia. Analiza problemu ujawnia, że choć Google deklaruje rygorystyczne zasady „dozwolonego użytku”, a TikTok posiada jasne wytyczne dotyczące „mowy nienawiści” i „nienawistnych zachowań”, oba podmioty mają trudności z egzekwowaniem tych polityk.

Wyzwania w moderacji treści

Problem jest złożony. Google, choć często chwali się mechanizmami bezpieczeństwa w swoich modelach AI, w przypadku Veo 3 wydaje się, że te „zasady bezpieczeństwa” (guardrails) są łatwe do ominięcia. Dziennikarze, testując narzędzie, bez trudu mogli odtworzyć elementy stanowiące podstawę rasistowskich materiałów, co sugeruje, że system AI nie potrafi skutecznie identyfikować i blokować subtelnych, rasistowskich sugestii, takich jak użycie wizerunków zwierzęcych zamiast ludzkich.

TikTok, jako dominująca platforma wideo, staje w obliczu ogromnego wyzwania. Pomimo, że platforma wykorzystuje zarówno algorytmy, jak i moderatorów do kontroli treści, gigantyczna skala przesyłanych materiałów sprawia, że nadążenie za napływem nienawistnych filmów jest niezwykle trudne. Rzecznik TikToka, w odpowiedzi na doniesienia, zapewnił, że znaczna część kont odpowiedzialnych za publikację problematycznych treści została już zablokowana. Niemniej jednak, fakt, że takie materiały w ogóle zyskały miliony wyświetleń, budzi poważne obawy.

Problem poza TikTokiem

Obecność nienawistnych treści generowanych przez AI nie ogranicza się wyłącznie do TikToka. Platformy takie jak X (dawny Twitter), z ich często problematyczną polityką moderacji, również stały się miejscem rozpowszechniania podobnego typu materiałów. Co więcej, plany Google dotyczące integracji Veo 3 z YouTube Shorts mogą wkrótce tylko pogłębić ten problem, otwierając nowe kanały dla rozprzestrzeniania się szkodliwych treści.

Ta sytuacja podkreśla fundamentalne napięcie między innowacjami w dziedzinie AI a odpowiedzialnością za ich społeczne konsekwencje. Firmy technologiczne, mimo deklaracji o inwestowaniu w bezpieczeństwo, wciąż mierzą się z lukami w systemach, które są wykorzystywane przez osoby chcące szerzyć nienawiść. Realizm generowany przez Veo 3 sprawia, że szkodliwe stereotypy są prezentowane w szczególnie przekonujący sposób, co może mieć dalekosiężne negatywne skutki społeczne. Pozostaje pytanie, czy jakiekolwiek „bariery bezpieczeństwa” będą w stanie skutecznie powstrzymać ten niepokojący trend.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *