Gubernator Teksasu i pułapka na piksele: Politycy wciąż nie odróżniają AI od rzeczywistości
Wirtualny bohater, realny blamaż
Flaga USA na kolanach, uśmiechnięci żołnierze i rzekome cudowne ocalenie lotnika z rąk Irańczyków. Brzmi jak scenariusz na hollywoodzki hit, a okazało się zwykłym „AI śmieciem” (AI slop), który w zaledwie kilka godzin skompromitował gubernatora Teksasu, Grega Abbotta, oraz prokuratora generalnego Kena Paxtona.
Obraz zainfekował platformę X, zdobywając ponad 21 000 udostępnień, zanim moderatorzy nałożyli na niego etykietę ostrzegawczą. Dla polityków szukających paliwa dla patriotycznego wzmożenia, techniczne niedoskonałości grafiki nie miały znaczenia.
Religijny kontekst i polityczny teatr
Abbott poszedł o krok dalej niż zwykłe polubienie. W usuniętym już wpisie obwieścił swoim 1,4 mln obserwujących, że rzekoma operacja (zbiegająca się w czasie z Wielkanocą) to „wiadomość od Boga dla naszych wrogów”. To klasyczny przykład wykorzystania generatywnych halucynacji do betonowania ideologicznego przekazu.
Problem w tym, że Bóg AI bywa kapryśny i często zostawia ślady.
Recydywa cyfrowej naiwności
To nie jest pierwszy raz, kiedy Abbott myli render z rzeczywistością. W marcu gubernator udostępnił nagranie rzekomego zestrzelenia irańskiego samolotu, które w rzeczywistości było fragmentem rozgrywki z gry wideo War Thunder. Wcześniej padł ofiarą satyrycznego artykułu o bojkocie piosenkarza country z powodu piwa Bud Light.
Gubernator Teksasu staje się twarzą nowej, niebezpiecznej normy: polityki opartej na odruchach, a nie na analizie danych wywiadowczych.
Algorytmiczna broń obosieczna
Republikanie nie mają monopolu na błędy. Architekci strategii Demokratów, jak Keith Edwards, promowali wcześniej deepfake’i pokazujące Donalda Trumpa z chodzikiem (13,5 mln wyświetleń), a Gavin Newsom rutynowo używa wygenerowanych obrazów, by wizualizować aresztowania swoich oponentów.
- Hiperrealizm: AI nie musi być idealne, by oszukać ludzki mózg w stresie.
- Asymetria informacji: Wygenerowanie fake’a zajmuje sekundy, sprostowanie go – godziny.
- Mgła wojny: W sytuacjach kryzysowych AI wypełnia luki informacyjne tam, gdzie brakuje oficjalnych zdjęć.
„Dodajemy tylko szum do i tak już skomplikowanej sytuacji” – ostrzega Hany Farid, ekspert od informatyki śledczej z UC Berkeley. To brutalna prawda o współczesnym ekosystemie mediów społecznościowych.
Fabryka halucynacji nie zwalnia
Zjawisko „AI śmieci” (AI slop) wokół wydarzeń politycznych stało się codziennością. Po zatrzymaniu Nicolása Maduro sieć zalały obrazy rakiet spadających na Caracas, które nigdy nie wystartowały. Fotografie te są „prawdopodobne”, ponieważ rzadko drastycznie zniekształcają fakty, za to idealnie trafiają w oczekiwania odbiorców.
W dzisiejszym internecie prawda stała się opcjonalnym dodatkiem do estetyki, która pasuje do tezy. Jeśli najwyżsi urzędnicy państwowi nie potrafią odróżnić tekstury z silnika graficznego od rzeczywistości, to „lekcje umiejętności korzystania z mediów” mogą nie wystarczyć. Potrzebujemy systemowych bezpieczników, których na razie brak.
