Społeczeństwo

Cyfrowy lukier: jak AI infekuje sieć nienaturalnym optymizmem

Zjawisko określane mianem „AI slop”, czyli masowo generowanej treści niskiej jakości, przestało być jedynie anegdotycznym narzekaniem użytkowników mediów społecznościowych. Analiza danych przeprowadzona przez badaczy z Imperial College London, Uniwersytetu Stanforda oraz Internet Archive dostarcza twardych dowodów na to, jak sztuczna inteligencja zmienia tkankę współczesnej sieci. Według raportu około 35 procent wszystkich nowych witryn powstałych w latach 2022-2025 to strony stworzone lub znacząco wspierane przez algorytmy.

Sztuczna euforia zamiast autentyczności

Najbardziej uderzającym wnioskiem z badania nie jest sama skala zjawiska, ale radykalna zmiana emocjonalnego tonu publikacji. Wykorzystując zaawansowaną analizę sentymentu, naukowcy odkryli, że treści generowane przez AI są o 107 procent bardziej pozytywne niż te pisane przez ludzi. Internet staje się miejscem „nienaturalnie radosnym”. Ten nadmiar optymizmu jest bezpośrednim wynikiem sposobu, w jaki trenowane są duże modele językowe (LLM). Projektuje się je tak, by były usłużne i potakiwały użytkownikowi, co w efekcie przekłada się na mdły, ociekający lukrem styl, pozbawiony ludzkiego krytycyzmu czy zdrowego dystansu.

Homogenizacja idei i śmierć unikalności

Choć stylistyka AI staje się coraz bardziej wygładzona, największym zagrożeniem wydaje się kurczenie się intelektualnego krajobrazu sieci. Badanie wykazało, że strony oparte na sztucznej inteligencji wykazują o 33 procent większe podobieństwo semantyczne między sobą niż witryny tradycyjne. W praktyce oznacza to drastyczny spadek różnorodności punktów widzenia i unikalnych pomysłów. Sieć, zamiast być agorą wymiany myśli, zaczyna przypominać gabinet luster, w którym warianty tej samej informacji są powielane w nieskończoność przez różne algorytmy.

Upadek powszechnych mitów

Co ciekawe, dane podważyły kilka popularnych teorii dotyczących destrukcyjnego wpływu AI. Przed badaniem zarówno naukowcy, jak i opinia publiczna spodziewali się, że ekspansja algorytmów doprowadzi do natychmiastowej eksplozji dezinformacji oraz zaniku linkowania do źródeł zewnętrznych. Ku zaskoczeniu autorów analiza nie potwierdziła tych założeń. Co więcej, nie odnotowano dowodów na to, by styl tekstów AI był obiektywnie bardziej „generyczny” niż pisarstwo gorszych autorów ludzkich.

Wyniki te pokazują, że nasze lęki wobec technologii nie zawsze pokrywają się z rzeczywistym kierunkiem jej ewolucji. Jak zauważa Maty Bohacek ze Stanforda, ludzie intuicyjnie spodziewali się najgorszych scenariuszy, tymczasem problemem okazał się nie tyle brak faktów, co wszechobecna, sztuczna pogoda ducha i wtórność ideowa. Jesteśmy świadkami narodzin internetu, który jest technicznie poprawny, ale emocjonalnie pusty i intelektualnie płaski.