Wojna w wersji syntetycznej. Jak AI zalewa front na Bliskim Wschodzie
Prawda przestała być pierwszą ofiarą wojny. Została po prostu utopiona w oceanie pikseli wygenerowanych przez modele dyfuzyjne. Podczas gdy na Bliskim Wschodzie trwają realne starcia, w sieci toczy się asymetryczny konflikt wizualny, w którym nieistniejące łodzie kamikaze i płonące wieżowce Dubaju generują miliony odsłon w czasie rzeczywistym.
Polityczny teatr technologiczny
Donald Trump, przemawiając na pokładzie Air Force One, nazwał AI „niebezpieczną bronią dezinformacyjną”, wskazując na Iran jako głównego architekta cyfrowych kłamstw. Były prezydent twierdzi, że Teheran fabrykuje sukcesy militarne, w tym rzekomy atak na lotniskowiec USS Abraham Lincoln. Choć Iran faktycznie twierdził, że uderzył w jednostkę, zachodnie media tego nie potwierdziły. Trump idzie jednak dalej – oskarża media głównego nurtu o „ścisłą koordynację” z Iranem w celu szerzenia fałszywych informacji.
To stawia nadawców w ekstremalnie trudnej sytuacji. Przewodniczący FCC, Brendan Carr, otwarcie grozi odbieraniem licencji stacjom, które nie „skorygują kursu” w swojej narracji o wojnie.
Archiwum nieistniejących lęków
Na platformie X (dawniej Twitter) krążą materiały, które jeszcze rok temu uznano by za słaby film science-fiction. Amerykańscy żołnierze na kolanach przed irańskimi flagami, ambasady USA w płomieniach, zrujnowane izraelskie miasta. Większość to deepfake’i wysokiej jakości, których przeciętny użytkownik nie jest w stanie odróżnić od autentycznych nagrań z Basry czy Gazy.
Problem polega na tym, że kłamstwo sprzedaje się lepiej. Post z wideo wygenerowanym przez AI, przedstawiającym irański atak nuklearny na Izrael, zyskał większą popularność niż oficjalne komunikaty bezpieczeństwa. Algorytmy premiują to, co budzi grozę, nie to, co jest faktem.
Elon Musk zakręca kurek z pieniędzmi
W odpowiedzi na falę krytyki, zespół Elona Muska ogłosił nową, restrykcyjną politykę: twórcy, którzy publikują generowane przez AI filmy wojenne bez jasnego oznaczenia, zostaną zawieszeni w programie monetyzacji na 90 dni. Kolejne przewinienie oznacza dożywotni zakaz zarabiania.
Nikita Bier, dyrektor produktu w X, stawia sprawę jasno – dezinformacja nie ma prawa być dochodowa. Jednak eksperci pozostają sceptyczni.
- Struktura motywacyjna X wciąż premiuje zasięgi, a nie jakość.
- Metadane obrazów AI są łatwe do usunięcia przed publikacją.
- System Community Notes publikuje mniej niż 10% zgłoszonych weryfikacji.
- Grok, własny chatbot X, wielokrotnie potwierdzał autentyczność fałszywych informacji.
Puste obietnice weryfikacji
Joe Bodnar z Institute for Strategic Dialogue zauważa, że feedy informacyjne wciąż są „zalane” treściami syntetycznymi. Fakt, że konto z niebieskim znacznikiem może zarabiać na filmie z płonącym wieżowcem Burdż Chalifa, pokazuje fundamentalną niewydolność systemów moderacji. Nawet jeśli X odcina niektóre konta od wypłat, tysiące innych działa poza programem dzielenia się przychodami, dążąc jedynie do chaosu informacyjnego.
Prawdziwym wyzwaniem nie jest już sama obecność AI, ale fakt, że platformy gigantów technologicznych stały się akceleratorami propagandy państwowej, która omija sankcje i filtry pod płaszczykiem „wolności słowa”.
W dzisiejszym internecie każde zdjęcie z frontu ma status „podejrzanego”, dopóki nie zostanie udowodnione inaczej. To zwycięstwo dezinformacji przez sam fakt zasiania powszechnego zwątpienia.
