Fałszywe filmy AI zasiewają dezinformację podczas huraganu Melissa na Jamajce
W miarę jak huragan Melissa, potężna burza kategorii 5, zbliżał się do wybrzeży Jamajki, media społecznościowe stały się areną szeroko zakrojonej dezinformacji. Do sieci błyskawicznie trafiły liczne sfałszowane materiały wideo, generowane przez sztuczną inteligencję, które skutecznie odwracały uwagę od oficjalnych ostrzeżeń i komunikatów bezpieczeństwa. Skutki tego zjawiska mogą być daleko idące, prowadząc do niedostatecznego przygotowania ludności i zwiększając ryzyko w obliczu nadchodzącej katastrofy.
Agencja AFP zidentyfikowała dziesiątki fałszywych filmów – z których większość nosiła znaki wodne modelu Sora firmy OpenAI – w czasie, gdy Melissa miała uderzyć w karaibską wyspę z gwałtownymi wiatrami i ulewnymi deszczami. Materiały te przedstawiały szereg inscenizowanych scenariuszy, od dramatycznych wiadomości i ujęć rozległych powodzi po obrazy rekinów pływających w zatopionych obszarach, a także wzruszające sceny ludzkiego cierpienia. Inne filmy ukazywały rzekomych mieszkańców – często z mocnym jamajskim akcentem, który zdawał się wzmacniać stereotypy – bawiących się, pływających łodziami, na skuterach wodnych, czy w inny sposób bagatelizujących zagrożenie, mimo iż meteorolodzy ostrzegali, że może to być najbardziej gwałtowna burza w historii wyspy.
Senator Dana Morris Dixon, jamajska minister informacji, podkreśliła konieczność polegania na oficjalnych źródłach. „Jestem w tylu grupach WhatsApp i widzę wszystkie te pojawiające się filmy. Wiele z nich jest fałszywych” – powiedziała Dixon. „Dlatego apelujemy, abyście słuchali oficjalnych kanałów”. Nawet pozornie nieszkodliwe fałszywki mogą zagłuszać ważne komunikaty bezpieczeństwa lub sprawić, że widzowie będą nie doceniać zagrożenia wynikającego z ekstremalnych zjawisk pogodowych, wskazują eksperci.
Dr Amy McGovern, profesor meteorologii z Uniwersytetu Oklahomy, której badania koncentrują się na wykorzystaniu AI do prognozowania ekstremalnych warunków pogodowych, ostrzega: „Ta burza jest ogromna i prawdopodobnie spowoduje katastrofalne szkody, a fałszywe treści podważają powagę przekazu rządu, dotyczącego przygotowań. Ostatecznie takie fałszywe treści doprowadzą do utraty życia i mienia.”
Większość zidentyfikowanych przez AFP klipów rozpowszechniła się przede wszystkim na TikToku, gdzie jedynie część z nich była oznaczona jako generowana przez AI, pomimo polityki platformy wymagającej ujawniania takich treści. TikTok usunął ponad dwadzieścia takich filmów oraz wiele kont po zgłoszeniu ich przez AFP. Niewielką liczbę podobnych przykładów odnaleziono również na Facebooku i Instagramie, mimo że polityka Meta, firmy macierzystej, również nakazuje oznaczanie fotorealistycznych filmów tworzonych za pomocą AI.
Hany Farid, współzałożyciel firmy cyberbezpieczeństwa GetReal Security i profesor na Uniwersytecie Kalifornijskim w Berkeley, podkreślił, że treści AI związane z huraganem uwydatniają, jak nowe modele tekstowo-wideo „przyspieszyły rozprzestrzenianie się przekonujących fałszywek”. Aplikacje te pozwalają użytkownikom tworzyć klipy zawierające hiperrealistyczne podobizny ludzi. Wielu widzów, jak wynikało z analizy komentarzy pod filmami przez AFP, nie zdawało sobie sprawy, że obrazy są generowane przez AI, mimo obecności znaku wodnego Sora. „Boże, proszę, chroń dom dziadka i drzewo mango” — napisał jeden z komentatorów pod filmem AI na TikToku, przedstawiającym starszego mężczyznę krzyczącego na huragan, że „nie ruszy się dla małego wiatru”. Inny użytkownik poprosił go o dalsze aktualizacje stanu jego posiadłości. Podobne modlitwy pojawiły się pod innym filmem przedstawiającym kobietę płaczącą o pomoc, trzymającą dzieci pod domem bez dachu.
„Paradoksem ery informacyjnej jest to, że stajemy się mniej poinformowani jako społeczeństwo, w miarę jak ilość informacji rośnie” – skomentował Farid, podkreślając pilną potrzebę krytycznej oceny treści pojawiających się w sieci.
