GeopolitykaLLM

Chatboty narzędziem rosyjskiej propagandy: raport ukazuje niepokojące związki

Chatboty oparte na sztucznej inteligencji, takie jak ChatGPT, Gemini, DeepSeek i Grok, rozpowszechniają propagandę pochodzącą z rosyjskich mediów, gdy użytkownicy pytają o inwazję na Ukrainę. Tak wynika z najnowszego raportu Instytutu Dialogu Strategicznego (ISD).

Badacze z ISD ustalili, że prawie jedna piąta odpowiedzi na pytania dotyczące wojny w Ukrainie, uzyskanych z czterech testowanych chatbotów, zawierała odniesienia do rosyjskich źródeł. Wiele z nich to media objęte sankcjami, powiązane z rosyjskim wywiadem lub pro-kremlowską narracją. Pablo Maristany de las Casas, analityk ISD i kierownik badań, zwraca uwagę, że problem jest szczególnie widoczny w przypadku tzw. data voids, czyli luk informacyjnych, gdzie niewiele jest wiarygodnych źródeł, a przestrzeń tę łatwo zapełnić fałszywymi lub manipulacyjnymi treściami.

Rosja, od czasu pełnoskalowej inwazji na Ukrainę w lutym 2022 roku, zmobilizowała swoje mechanizmy dezinformacyjne. Poza ograniczaniem wolności słowa wewnątrz kraju, Kreml intensyfikuje działania w cyberprzestrzeni, wykorzystując sztuczną inteligencję do generowania fałszywych obrazów, filmów i stron internetowych. Europejscy urzędnicy nałożyli sankcje na co najmniej 27 rosyjskich źródeł medialnych za szerzenie dezinformacji i zniekształcanie faktów. Mimo to, te same źródła – takie jak Sputnik Globe, Sputnik China, RT (dawniej Russia Today), EADaily, Strategic Culture Foundation czy R-FBI – nadal pojawiają się w odpowiedziach chatbotów.

Badanie ISD pokazuje, że problem ma charakter systemowy. W lipcu badacze przeprowadzili eksperyment, zadając chatbotom 300 pytań o różnym stopniu stronniczości, dotyczących m.in. NATO, rozmów pokojowych, mobilizacji ukraińskiej, uchodźców czy zbrodni wojennych. Wyniki z października potwierdziły utrzymywanie się problemu. Około 18 procent wszystkich odpowiedzi, niezależnie od języka (angielskiego, hiszpańskiego, francuskiego, niemieckiego, włoskiego) i konkretnego modelu LLM, odwoływało się do źródeł powiązanych z rosyjskimi mediami państwowymi lub agencjami wywiadowczymi.

Potwierdzenie stronniczości: im bardziej złośliwe zapytanie, tym więcej propagandy

Raport ISD ujawnia również zjawisko tendencyjności potwierdzenia: im bardziej stronnicze lub „złośliwe” było pytanie, tym częściej chatboty podawały informacje powiązane z rosyjskimi źródłami. W przypadku złośliwych zapytań, rosyjskie treści stanowiły aż ćwierć odpowiedzi, podczas gdy przy stronniczych pytaniach było to 18 procent, a przy neutralnych – nieco ponad 10 procent.

Wśród badanych chatbotów, ChatGPT najczęściej cytował rosyjskie źródła i był najbardziej podatny na stronnicze zapytania. Grok często odsyłał do kont w mediach społecznościowych promujących narracje Kremla, natomiast DeepSeek generował dużą ilość rosyjskich treści. Jedyne ulepszenia zaobserwowano w Google Gemini, który często wyświetlał ostrzeżenia o bezpieczeństwie przy wynikach, co wskazuje na pewną świadomość problemu.

Wielu ekspertów zwraca uwagę, że problem staje się coraz bardziej palący, ponieważ rosnąca liczba osób wykorzystuje chatboty AI jako alternatywę dla wyszukiwarek, aby uzyskiwać informacje w czasie rzeczywistym. Łukasz Olejnik, niezależny konsultant i pracownik naukowy King’s College London, podkreśla, że celowanie w infrastrukturę informacyjną LLM jest „inteligentnym posunięciem” ze strony Rosji i stanowi poważne zagrożenie dla ekosystemu informacyjnego Zachodu.

Walka z dezinformacją – czy regulacje to rozwiązanie?

Rzeczniczka OpenAI, Kate Waters, w oświadczeniu dla WIRED, zapewniła, że firma podejmuje kroki, aby zapobiegać wykorzystywaniu ChatGPT do szerzenia fałszywych lub wprowadzających w błąd informacji, w tym treści powiązanych z podmiotami wspieranymi przez państwo. Ani Google, ani DeepSeek nie odpowiedziały na prośbę o komentarz. xAI Elona Muska odpowiedziało: „Starsze Media Kłamią”.

Kwestia regulacji staje się coraz bardziej istotna, zwłaszcza w kontekście planowanych przepisów UE. ChatGPT może wkrótce przekroczyć próg 45 milionów średnich miesięcznych użytkowników, co oznaczałoby zaklasyfikowanie go jako „Bardzo Dużej Platformy Online” (VLOP) i podleganie szczególnym regulacjom. Zgodnie z tymi przepisami, platformy te będą odpowiedzialne za ryzyko związane z nielegalnymi treściami i ich wpływem na prawa podstawowe, bezpieczeństwo publiczne i dobrobyt.

Maristany de las Casas z ISD argumentuje, że nawet bez formalnych regulacji, powinna istnieć zgoda między firmami co do tego, które źródła, powiązane z państwami szerzącymi dezinformację, nie powinny być cytowane lub pojawiać się na platformach. Zamiast całkowitego usuwania, proponuje kontekstualizację tych źródeł, informowanie użytkowników o ich stronniczości i statusie objętych sankcjami. Działania takie pomogłyby użytkownikom lepiej zrozumieć charakter konsumowanych treści, zwłaszcza gdy pojawiają się one obok wiarygodnych i zweryfikowanych źródeł.

Badania McKenzie Sadeghi z NewsGuard wskazują, że rosyjska sieć dezinformacyjna „Pravda” aktywnie zalewa sieć milionami artykułów, starając się „zatruć” modele LLM. Chociaż raport ISD powiązał z nią jedynie dwa spośród rosyjskich źródeł, Sadeghi podkreśla, że sieć ta szybko uruchamia nowe domeny, co utrudnia skuteczne monitorowanie i blokowanie dezinformacji, zwłaszcza w obszarach, gdzie brakuje wiarygodnych informacji. „Posiadanie rosyjskiej dezinformacji powielanej przez zachodni model AI nadaje tej fałszywej narracji znacznie większą widoczność i autorytet, co pozwala tym złym aktorom osiągnąć swoje cele” – podsumowuje Sadeghi.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *