Zalew treści generowanych przez AI na Reddicie zagraża autentyczności platformy
Reddit, platforma znana z autentycznych rozmów i społeczności, staje w obliczu potężnego zagrożenia ze strony treści generowanych przez sztuczną inteligencję. Od momentu premiery ChatGPT pod koniec 2022 roku, wolontariusze moderujący popularne subreddity, takie jak r/AmItheAsshole z ponad 24 milionami członków, zmagają się z napływem tzw. „AI slop” – mechanicznie generowanych lub przerobionych postów, które zacierają granice między autentycznymi doświadczeniami a algorytmiczną fikcją.
Cassie, jedna z moderatorek r/AmItheAsshole, szacuje, że nawet połowa wszystkich treści zamieszczanych na Reddicie mogła zostać stworzona lub zmieniona przy użyciu narzędzi sztucznej inteligencji. Jest to problem szczególnie widoczny w subredditch poświęconych relacjom międzyludzkim, takich jak właśnie r/AmItheAsshole czy r/AITAH, gdzie użytkownicy często dzielą się osobistymi dylematami w poszukiwaniu porady lub oceny. Scenariusze, które wywołują silne emocje – na przykład dotyczące ślubnych gaf czy konfliktów rodzinnych – są często naśladowane przez AI, by generować zaangażowanie. W efekcie moderatorzy borykają się z wyzwaniem odróżnienia prawdziwych historii od tych stworzonych wyłącznie w celu wywołania kontrowersji.
Egzystencjalne zagrożenie dla platformy
Moderatorka r/AITAH, aktywnie działająca na Reddicie od 18 lat, postrzega ten trend jako realne zagrożenie egzystencjalne dla platformy. „Reddit albo będzie musiał coś zrobić, albo wąż połknie swój własny ogon” – komentuje, nawiązując do niebezpieczeństwa, jakim jest karmienie AI treściami wygenerowanymi przez inne AI. Rzecznik Reddita, w odpowiedzi na zapytanie, podkreślił, że platforma zakazuje manipulowanych treści i nieautentycznych zachowań. Wskazuje, że w pierwszej połowie 2025 roku usunięto ponad 40 milionów przypadków spamu i zmanipulowanych treści. Dopuszczone są jedynie odpowiednio oznaczone treści AI, zgodne z regulaminami społeczności i platformy.
Utrata zaufania użytkowników
Wzrost liczby potencjalnie generowanych przez AI treści prowadzi do erozji zaufania wśród użytkowników. Ally, 26-letnia tutor z Florydy, zauważa wyraźne pogorszenie jakości Reddita w ciągu ostatniego roku. Użytkownicy w subredditch takich jak r/EntitledPeople czy r/simpleliving wyrażają frustrację i niepewność, czy interakcje, w których uczestniczą, są jeszcze autentyczne. Jak napisał jeden z użytkowników r/AmITheJerk: „AI zmienia Reddit w stertę śmieci. Nawet jeśli post podejrzany o bycie AI nim nie jest, sama obecność AI jest jak szpieg w pokoju. Podejrzenie samo w sobie jest wrogiem”. To poczucie nieautentyczności prowadzi do wycofywania się użytkowników z platformy.
Wyjątkowe wyzwania w wykrywaniu treści AI
Wykrywanie treści generowanych przez AI jest niezwykle trudne. Nie ma niezawodnych narzędzi, a moderatorzy polegają na intuicji i fragmentarycznych wskazówkach. Cassie zwraca uwagę na posty, w których tytuł jest dosłownie powtórzony w treści, lub na użycie półpauz (em-dashy). Inni moderatorzy zauważają perfekcyjną gramatykę w postach osób, które w historii komentarzy posługiwały się językiem pełnym błędów. Jednak te „oznaki” mogą być obecne również w treściach stworzonych przez ludzi. Travis Lloyd, doktorant z Cornell Tech, podkreśla, że „na razie nie ma niezawodnych narzędzi do stuprocentowego wykrywania. Tak więc ludzie mają swoje strategie, ale niekoniecznie są one niezawodne”.
Co więcej, im więcej treści AI pojawia się w sieci, tym bardziej ludzie zaczynają naśladować cechy języka generowanego przez sztuczną inteligencję. Reddit sam w sobie stanowi paradoks, ponieważ treści z platformy są wykorzystywane do trenowania modeli sztucznej inteligencji, które następnie generują treści na Reddita. Ten „algorytmiczny obieg zamknięty” sprawia, że odróżnienie ludzi od maszyn staje się coraz trudniejsze. „AI jest trenowane na ludziach, a ludzie kopiują to, co widzą, że robią inni” – mówi Cassie. „Ludzie stają się bardziej podobni do AI, a AI staje się bardziej podobne do ludzi”.
Polityka i dezinformacja
Poza motywacjami ideologicznymi pojawiają się także nowe sposoby monetyzacji. Program Reddit Contributor pozwala użytkownikom zarabiać na tzw. „karmie” (punktach za aktywność), którą można gromadzić za pomocą treści generowanych przez AI, a następnie sprzedawać konta. Niektórzy wykorzystują to do budowania reputacji potrzebnej do publikowania w subredditch dla dorosłych, w celu promowania płatnych platform takich jak OnlyFans. Jak zauważa Tom, moderator r/Ukraine, AI otwiera również nowe możliwości dla rozprzestrzeniania dezinformacji. W przypadku konfliktów zbrojnych, narzędzia sztucznej inteligencji znacznie zwiększają skalę i efektywność operacji wpływu, czyniąc pracę moderatorów w walce z propagandą niemal tytaniczną. „To było jak jeden człowiek stojący na polu przeciwko fali pływowej” – mówi Tom. „Możesz stworzyć tyle hałasu tak małym wysiłkiem”.
Wzrost ilości treści generowanych przez AI stanowi ogromne obciążenie dla moderatorów Reddita. Ocena wiarygodności każdego posta wymaga znacznie więcej wysiłku niż jego stworzenie. Ten problem wykracza jednak poza granice Reddita, stając się uniwersalnym wyzwaniem dla edukatorów, dziennikarzy i wszystkich, którzy na co dzień zmagają się z morzem informacji, weryfikując ich autentyczność. W obliczu tego zjawiska przyszłość autentycznych społeczności internetowych pozostaje pod znakiem zapytania.
