Dezinformacja napędzana sztuczną inteligencją: fałszywa identyfikacja po strzelaninie w Minneapolis
Tragiczne wydarzenia z Minneapolis, gdzie agent federalny zastrzelił 37-letnią Renee Nicole Good, wywołały falę oburzenia i spekulacji w mediach społecznościowych. Szybko jednak okazało się, że część z tych spekulacji bazuje na fałszywych informacjach, a kluczową rolę w ich rozprzestrzenianiu odegrała sztuczna inteligencja.
Krótko po strzelaninie, do której doszło rano, w internecie zaczęły krążyć zdjęcia, rzekomo przedstawiające „zdemaskowaną” twarz federalnego agenta. Problem w tym, że w dostępnych nagraniach wideo z incydentu żadnemu z zamaskowanych agentów nie spadła maska. Te rzekomo „ujawnione” wizerunki to nic innego jak manipulacje stworzone za pomocą algorytmów sztucznej inteligencji, które próbowały „odtworzyć” twarz agenta na podstawie niewyraźnych kadrów.
Jak AI tworzy fałszywe tożsamości?
Hany Farid, profesor UC-Berkeley i ekspert w dziedzinie analizy obrazu, zwraca uwagę na fundamentalny problem: „Ulepszanie obrazu za pomocą AI ma tendencję do generowania halucynacji w detalach twarzy, co prowadzi do uzyskania wizualnie wyraźnego, lecz często całkowicie oderwanego od rzeczywistości obrazu. W sytuacji, gdy połowa twarzy jest zasłonięta, żadna technika, w tym AI, nie jest w stanie dokładnie zrekonstruować tożsamości”.
Analiza przeprowadzona przez redakcję WIRED wykazała, że liczne, zmodyfikowane przez AI obrazy były udostępniane na wszystkich wiodących platformach społecznościowych, takich jak X, Facebook, Threads, Instagram, BlueSky i TikTok. Wiele z tych postów generowało ogromne zasięgi. Na przykład, wpis Claude’a Taylora, założyciela Mad Dog PAC, ze zdjęciem stworzonym przez AI, osiągnął ponad 1,2 miliona wyświetleń, domagając się ujawnienia tożsamości agenta. Inny post na Threads, zachęcający do identyfikacji i udostępnienia adresu agenta, zdobył blisko 3,5 tysiąca polubień.
Ofiary dezinformacji
Konsekwencje okazały się dramatyczne. Wraz z fałszywymi wizerunkami, w internecie zaczęły krążyć nazwiska i profile społecznościowe osób, które rzekomo miały być federalnym agentem. WIRED potwierdziło, że co najmniej dwa z tych nazwisk nie mają żadnego związku z agencją ICE (Immigration and Customs Enforcement).
Jedną z ofiar tej dezinformacji stał się Steve Grove, prezes i wydawca gazety „Minnesota Star Tribune”, wcześniej związany z administracją gubernatora Minnesoty. Chris Iles, wiceprezes do spraw komunikacji w „Star Tribune”, potwierdził, że obserwują „skoordynowaną kampanię dezinformacyjną online, błędnie identyfikującą agenta ICE”. Jasno podkreślił, że Steve Grove nie ma żadnego związku z tą sprawą.
Powtarzający się schemat
To nie pierwszy raz, kiedy sztuczna inteligencja jest wykorzystywana do szerzenia dezinformacji w kontekście strzelanin. Podobna sytuacja miała miejsce we wrześniu, po zabójstwie Charliego Kirka, gdy szeroko udostępniano stworzony przez AI wizerunek sprawcy, oparty na niewyraźnych nagraniach. Ostatecznie okazało się, że obraz AI w niczym nie przypominał prawdziwego sprawcy. Te incydenty podkreślają rosnące wyzwanie w walce z dezinformacją, gdzie zaawansowane narzędzia technologiczne stają się instrumentem manipulacji i fałszywych oskarżeń, utrudniając prowadzenie rzetelnych śledztw i negatywnie wpływając na życie niewinnych osób.
