Cyfrowy chaos po aresztowaniu Maduro: Fala dezinformacji testuje granice mediów społecznościowych
Wczesnym rankiem w sobotę 3 stycznia 2026 roku Donald Trump ogłosił na Truth Social, że siły amerykańskie schwytały prezydenta Wenezueli Nicolása Maduro oraz jego żonę Cilię Flores. Wiadomość ta, która błyskawicznie obiegła świat, natychmiast uruchomiła mechanizm dezinformacji na niespotykaną skalę. Zaledwie kilka minut później, media społecznościowe – w tym TikTok, Instagram i X – zostały zalane treściami wprowadzającymi w błąd, od rzekomo generowanych przez sztuczną inteligencję filmów po dawno nieaktualne nagrania, prezentowane jako bieżące sceny z Caracas.
Donald Trump, informując o operacji, pisał o „udanej, zakrojonej na szeroką skalę akcji przeciwko Wenezueli i jej przywódcy”, zaś kilka godzin później prokurator generalna USA, Pam Bondi, ogłosiła postawienie Maduro i jego żony w stan oskarżenia przed sądem Południowego Dystryktu Nowego Jorku. Zarzuty obejmują konspirację narkoterroryzmu, spiskowanie w celu importu kokainy oraz posiadanie broni maszynowej. Bondi zapowiedziała, że „wkrótce staną przed pełnym gniewem amerykańskiego wymiaru sprawiedliwości na amerykańskiej ziemi i w amerykańskich sądach”.
AI w służbie fałszu
Chwilę po rozprzestrzenieniu się informacji o aresztowaniu Maduro, w sieci zaczęło krążyć zdjęcie, rzekomo przedstawiające dwóch agentów amerykańskiej Agencji ds. Narkotyków (DEA) eskortujących wenezuelskiego prezydenta. Redakcja WIRED, korzystając z technologii SynthID, opracowanej przez Google DeepMind, która identyfikuje obrazy generowane przez AI, potwierdziła, że zdjęcie to było najprawdopodobniej fałszywe. Chatbot Gemini, analizując obraz, stwierdził: „Na podstawie mojej analizy, większość lub całość tego obrazu została wygenerowana lub edytowana przy użyciu Google AI. Wykryłem znak wodny SynthID, który jest niewidzialnym sygnałem cyfrowym osadzonym przez narzędzia AI Google podczas procesu tworzenia lub edycji”.
Co ciekawe, chatbot X – Grok – również potwierdził fałszywość obrazu, ale błędnie zasugerował, że jest to zmieniona wersja zdjęcia z aresztowania meksykańskiego barona narkotykowego Dámaso Lópeza Núñeza w 2017 roku. Jeszcze bardziej kuriozalnie, jak wcześniej donosiło WIRED, chatbot ChatGPT zdecydowanie zaprzeczał, że Maduro został w ogóle schwytany, gdy pytano go o to zdarzenie w sobotni poranek. To podkreśla niekonsekwencje i niedoskonałości obecnych narzędzi AI w weryfikacji faktów w czasie rzeczywistym.
Nie tylko obrazy, ale i filmy generowane przez AI stały się narzędziem dezinformacji. Na TikToku pojawiło się wiele przykładów rzekomo generowanych przez sztuczną inteligencję filmów, które miały pokazywać aresztowanie Maduro. W ciągu zaledwie kilku godzin zgromadziły one setki tysięcy wyświetleń. Wiele z nich bazowało na obrazach stworzonych przez cyfrowego twórcę Rubena Dario, które na Instagramie odnotowały ponad 12 000 wyświetleń. Podobne treści szybko pojawiły się również na platformie X.
Stare nagrania jako nowe kłamstwo
Poza treściami generowanymi przez AI, istotnym elementem kampanii dezinformacyjnej było ponowne wykorzystywanie starych nagrań. Podobnie jak w przypadku innych globalnych kryzysów – choćby wybuchu wojny izraelsko-hamasowskiej w październiku 2023 roku czy bombardowania irańskich obiektów nuklearnych zeszłego lata – osoby szerzące dezinformację udostępniały archiwalne materiały, twierdząc, że przedstawiają one bieżące wydarzenia w Caracas.
Laura Loomer, influencerka z wyraźnymi sympatiami pro-trumpowskimi, była jedną z dziesiątek osób, które udostępniły wideo, rzekomo przedstawiające zrywanie plakatów Maduro, pisząc: „Po schwytaniu Maduro przez amerykańskie siły specjalne ludzie w Wenezueli zrywają plakaty Maduro i wychodzą na ulice, by świętować jego aresztowanie przez administrację Trumpa”. Nagranie to pochodziło jednak z 2024 roku i zostało ostatecznie usunięte przez Loomer. Inny film, twierdzący, że przedstawia szturm USA na Caracas, został opublikowany przez konto „Defense Intelligence” krótko po ogłoszeniu aresztowania Maduro i na X obejrzano go ponad 2 miliony razy. Okazało się, że ten materiał został pierwotnie opublikowany na TikToku w listopadzie 2025 roku i w chwili publikacji artykułu nadal pozostawał na platformie X.
Brak reakcji platform
Coraz częściej globalne incydenty wywołują gigantyczne fale dezinformacji w mediach społecznościowych, ponieważ firmy technologiczne wycofują się z intensywnych działań moderacyjnych. Wiele kont wykorzystuje te mniej rygorystyczne zasady, aby zwiększyć zaangażowanie i zdobyć obserwujących. Mimo wyraźnych dowodów na szerzenie się fałszywych informacji i zmanipulowanych treści, platformy X, Meta i TikTok nie odpowiedziały na prośby o komentarz w tej sprawie. Bez zdecydowanych działań ze strony gigantów technologicznych, środowisko cyfrowe pozostaje podatne na szybkie rozprzestrzenianie się fałszu, stawiając pod znakiem zapytania naszą zdolność do odróżnienia prawdy od fikcji w obliczu kryzysu.
