Media

Dezinformacja napędzana przez AI podważa zaufanie, ale paradoksalnie zwiększa zaangażowanie w wiarygodne źródła informacji

Wraz z rozwojem sztucznej inteligencji, w szczególności generatywnej AI, wzrastają obawy dotyczące dezinformacji w sieci i jej wpływu na politykę, biznes oraz społeczeństwo. Nowe badanie przeprowadzone przez naukowców z Carnegie Mellon University, Johns Hopkins University, National University of Singapore oraz Süddeutsche Zeitung Digitale Medien, rzuca nowe światło na ten problem. Wyniki eksperymentu terenowego przeprowadzonego we współpracy z niemieckim dziennikiem Süddeutsche Zeitung (SZ) sugerują, że choć dezinformacja napędzana przez AI rzeczywiście obniża ogólny poziom zaufania do mediów, może jednocześnie paradoksalnie zwiększać zaangażowanie odbiorców w te źródła informacji, które są postrzegane jako godne zaufania.

Ananya Sen, profesor z Carnegie Mellon’s Heinz College, współautorka badania, zwraca uwagę na trudną sytuację finansową branży medialnej od czasu pojawienia się Internetu. Podkreśla, że dla modeli biznesowych opartych na produkcji wysokiej jakości treści, niemożność odróżnienia prawdziwych informacji od fałszywych stanowi poważne zagrożenie dla ekonomicznej stabilności.

Metodologia i wyniki badania

Badanie przeprowadzono na grupie 17 000 subskrybentów SZ, gazety cieszącej się dużym zaufaniem. Uczestników podzielono losowo na dwie grupy. Pierwsza grupa otrzymała do oceny pary zdjęć – prawdziwych i wygenerowanych przez AI – dotyczących bieżących wydarzeń, z zadaniem wskazania, które z nich mogło zostać stworzone przez sztuczną inteligencję. Druga grupa otrzymała jedynie pary prawdziwych zdjęć i odpowiadała na pytania niezwiązane z AI.

Następnie, obie grupy wzięły udział w quizie mającym na celu ocenę postrzegania dezinformacji oraz wyrażenie poziomu zaufania do SZ i innych mediów. Przez kolejne tygodnie monitorowano zachowania online ponad 6000 respondentów w odniesieniu do treści publikowanych przez SZ.

Okazało się, że respondenci, którzy mieli styczność z informacjami na temat trudności w odróżnianiu prawdziwych zdjęć od tych wygenerowanych przez AI, wykazywali zwiększone zaangażowanie w treści SZ. Dzienny wzrost wizyt na stronach i w aplikacjach SZ wyniósł 3% w ciągu pierwszych 3–5 dni. Efekt ten słabł z upływem czasu, ale pozostawał istotny nawet po dwóch tygodniach. Dodatkowo, osoby te wykazywały wyższy poziom zapamiętywania informacji.

Paradoks zaufania w erze AI

Co ciekawe, badanie wykazało również, że respondenci z pierwszej grupy byli mniej skłonni do rezygnacji z subskrypcji SZ, pomimo zwiększonej świadomości na temat możliwości generowania fałszywych obrazów przez AI. Wskaźnik utrzymania subskrypcji wzrósł o 1,1% po pięciu miesiącach, co odpowiada około jednej trzeciej spadku wskaźnika rezygnacji.

Filipe Campante z Süddeutsche Zeitung Digitale Medien, który kierował badaniem, wyjaśnia, że pogorszenie jakości środowiska informacyjnego spowodowane pojawieniem się technologii takich jak GenAI prowadzi do ogólnego spadku zaufania do informacji. Jednak, jak dodaje: „źródło informacji, które jest postrzegane jako wystarczająco wiarygodne, może mimo to odnotować wzrost popytu, ponieważ jego względna wartość rośnie w oczach czytelników, którzy uważają je za wystarczająco wiarygodne, aby złagodzić skutki dezinformacji”.

Implikacje dla branży medialnej

Wyniki badania sugerują potencjalną strategię biznesową dla branży medialnej w odpowiedzi na wyzwania związane z treściami generowanymi przez AI. Kluczowe jest nie tylko utrzymanie wysokiego poziomu wiarygodności, ale również ciągłe rozwijanie narzędzi i metod pozwalających czytelnikom odróżniać prawdziwe informacje od tych wygenerowanych przez sztuczną inteligencję. W szerszej perspektywie społecznej, badanie to stanowi ważny kontrapunkt dla obaw, że AI i dezinformacja prowadzą do nieodwracalnego spadku zaufania w środowisku informacyjnym. Okazuje się, że wzrost trudności w odróżnianiu prawdy od fałszu może paradoksalnie zwiększać wartość i popyt na wiarygodne źródła informacji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *