AIPasta: Nowy wymiar dezinformacji napędzany sztuczną inteligencją
Wraz z rozwojem generatywnej sztucznej inteligencji pojawiają się nowe narzędzia, które mogą być wykorzystywane do szerzenia dezinformacji. Najnowsze badania, opublikowane w PNAS Nexus, rzucają światło na zjawisko nazwane „AIPasta” – połączenie znanej techniki „CopyPasta” z możliwościami AI w tworzeniu zniuansowanych, lecz powtarzalnych przekazów.
Tradycyjna CopyPasta polega na wielokrotnym powtarzaniu identycznego tekstu, opierając się na efekcie „powtarzanej prawdy”, gdzie częste eksponowanie na ten sam komunikat sprawia, że staje się on bardziej wiarygodny. AIPasta, opracowana przez zespół badawczy pod kierownictwem Saloni Dash, przenosi ten koncept na nowy poziom. Wykorzystując sztuczną inteligencję, AIPasta generuje wiele nieznacznie różniących się wariantów tej samej wiadomości. Daje to odbiorcom wrażenie, że dany pogląd jest szeroko rozpowszechniony i akceptowany przez wiele niezależnych źródeł, co w konsekwencji ma zwiększyć jego wiarygodność.
Autorzy badania przetestowali zarówno metody CopyPasta, jak i AIPasta, używając ich do promowania teorii spiskowych, dotyczących fałszerstw w wyborach prezydenckich w USA w 2020 roku oraz celowego charakteru pandemii COVID-19. W ankiecie online, przeprowadzonej na grupie 1200 Amerykanów, początkowo żadna z tych technik nie okazała się skuteczna w przekonywaniu uczestników do prawdziwości badanych teorii spiskowych.
Analiza danych, wyodrębniająca uczestników o poglądach republikańskich, którzy mogli być bardziej podatni na określone dezinformacje, wykazała jednak, że AIPasta wyraźniej zwiększała wiarę w fałszywe twierdzenia w porównaniu do CopyPasty. Co istotne, niezależnie od afiliacji politycznej, ekspozycja na AIPasta (w przeciwieństwie do CopyPasta) znacząco wzmacniała wrażenie, że istnieje szeroki konsensus wokół podanej informacji.
Jednym z najbardziej niepokojących ustaleń jest fakt, że treści generowane przez AIPasta w badaniu nie zostały wykryte przez powszechnie dostępne detektory tekstu stworzonego przez AI. Sugeruje to, że usunięcie takich komunikatów z platform mediów społecznościowych będzie znacznie trudniejsze niż w przypadku prostego CopyPasty, co może znacząco zwiększyć efektywność dezinformacji bazującej na tej technice. To stanowi poważne wyzwanie dla moderatorów treści i systemów odpowiedzialnych za walkę z fake newsami, ponieważ wymaga znacznie bardziej zaawansowanych algorytmów wykrywania i oceny autentyczności.
Badania Saloni Dash i jej zespołu, choć świeże, podkreślają pilną potrzebę opracowania nowych strategii i narzędzi do identyfikacji oraz neutralizacji zaawansowanych form dezinformacji, które wykorzystują sztuczną inteligencję do subtelnej manipulacji percepcją opinii publicznej.
