Teoria „martwego internetu” przestaje brzmieć jak fantazja. Boty i treści AI wypychają ludzi z sieci
Internet wciąż żyje ludzkim ruchem, ale coraz częściej nie brzmi po ludzku. Treści generowane przez modele, boty i autonomiczne systemy agentowe zalewają platformy społecznościowe i wyszukiwarki. Koncepcja „martwego internetu” – niegdyś marginalizowana jako teoria spiskowa – zyskuje empiryczne paliwo. Zebrane liczby nie są spójne, ale idą w tym samym kierunku: automatyzacja nie tylko produkuje treści, lecz także zaczyna odgrywać rolę użytkownika.
Od teorii spiskowej do liczb w raportach
Gdy kilka lat temu na 4Chan i w kafejkach forów pokroju Agora Road krążyła hipoteza, że większość internetu to symulacja podtrzymywana przez boty, brzmiało to jak fantastyka. Dziś wykresy są mniej wyrozumiałe dla sceptyków. Według Imperva’s 2025 Bad Bot Report, zautomatyzowany ruch odpowiadał w 2024 roku za 51% całego ruchu w sieci – po raz pierwszy przebijając udział ludzi. Analitycy firmy Graphite szacują z kolei, że pod koniec 2024 r. liczba artykułów pisanych przez AI przewyższyła te tworzone przez autorów.
W lutowym (2025) artykule w Asian Journal of Research in Computer Science badacze opisali platformy społecznościowe jako „ekosystemy sterowane maszynowo” i ostrożnie lokują udział botów w ruchu na poziomie 40–60%. Automaty nie tylko skrobią dane i spamują, lecz również napędzają metryki – polubienia, udostępnienia i komentarze – które mają sugerować tętniącą życiem debatę, choć w tle pracują skrypty.
Platformy społecznościowe: ciszej na wierzchu, głośniej pod maską
Inwestycyjny raport Galaxy Interactive z września 2025 r. wskazuje, że automatyzacja dominuje już na największych platformach. Reddit, YouTube czy X (dawny Twitter) notują wzrost powtarzalnych, niskiej jakości treści przypisywanych automatom. Szacunki cytowane w raporcie dla X są drastyczne: nawet 64% kont może być botami generującymi aż 76% ruchu w godzinach szczytu. Na Instagramie fałszywe lub zautomatyzowane konta mają obejmować około 95 mln profili, czyli 9,5% całości. Meta nie odpowiedziała na prośbę o komentarz, a X standardowo nie odpowiada na zapytania mediów.
To nie znaczy, że ludzi ubyło. Socjolog Alex Turvy zwraca uwagę, że automatyzacja rozbija proste sygnały, po których rozpoznajemy człowieka. Kiedy „ludzkość” da się wiarygodnie zasymulować, rośnie nieufność wobec wszystkich. Efekt uboczny: migracja do półprywatnych miejsc – Discorda, zamkniętych grup, czatów. Internet publiczny robi się przez to cichszy, choć całkowita aktywność ludzi nie spada.
Gubimy sygnały człowieczeństwa
To, co kiedyś odróżniało nas od skryptów – tempo, potknięcia, drobne sprzeczności – staje się odtwarzalne. Warstwa „hydrauliki” sieci – loginy, kody 2FA, CAPTCHA – była projektowana z założeniem, że po drugiej stronie jest osoba. Dziś oprogramowanie uczy się tych rytuałów i odgrywa je z przekonującą precyzją. Gdy narzędzia AI streszczają treści generowane przez inne narzędzia, pętla domyka się: w praktyce czytamy maszyny streszczające maszyny.
Ten rozjazd między percepcją a rzeczywistością szczególnie wyraźny jest na platformach budowanych pod wynik i zasięg, nie pod rzetelność. Jak zauważa inwestor Deedy Das z Menlo Ventures, około połowa widocznych w sieci tekstów może być dziś wygenerowana przez AI – a to, co konsumujemy, to coraz częściej auto-streszczenia tej samej maszynowej masy.
Agenci AI zmieniają zasady gry
Kolejne przyspieszenie przynoszą tzw. agenci AI – autonomiczne programy, które na żądanie użytkownika przeglądają strony, prowadzą wyszukiwania, dokonują zakupów, handlują aktywami czy rozmawiają z innymi systemami. Ekonomika tego zjawiska jest bezlitosna: jak podkreśla Nirav Murthy (Camp Network), agentowe AI potrafi remiksować treści w tempie maszynowym i prawie bezkosztowo. Produkcja rośnie, urozmaicenie spada, a gdy dodaje się weryfikację przez człowieka, wskaźniki „magicznie” się kurczą. Skoro nagradzane jest tanie, sztuczne zaangażowanie, powstają całe linie produkcyjne automatycznej zawartości polującej na kliknięcia.
Granica między „użytkownikiem” a oprogramowaniem bywa już kompletnie nieczytelna. Na początku miesiąca Amazon wysłał pismo typu cease-and-desist do firmy Perplexity po wykryciu, że jej przeglądarka Comet dokonywała zakupów na Amazonie, podszywając agentów pod ludzkich kupujących. Z kolei Anthropic poinformowało, że zablokowało – jak to ujęło – pierwszy atak cybernetyczny napędzany AI, po tym jak wspierani przez państwo chińscy hakerzy próbowali wykorzystać agenta Claude Code do włamania do 30 firm. Gdy takie „floty” agentów wysyłają miliony żądań, całość wygląda jak normalny ruch użytkowników – i jest znacznie trudniejsza do wykrycia.
Następna fala: syntetyczne wideo
Do tego dochodzi kolejny wzrost wolumenu: generowanie wideo. Narzędzia pokroju Sora 2 od OpenAI czy Veo 3 od Google tworzą realistyczne klipy i deepfake’i z opisów tekstowych. Strumień gładko wyglądających, lecz syntetycznych materiałów zasili feedy społecznościowe i wyszukiwarki, dodatkowo utrudniając rozpoznanie, co jest dokumentacją rzeczywistości, a co kreacją.
Dowód człowieczeństwa: eksperymenty i ryzyka
Jeśli „człowieczeństwo” staje się sygnałem, który opłaca się podrobić, presja na mechanizmy weryfikacji tożsamości będzie rosła. Na horyzoncie widać serię projektów blockchainowych, które próbują przypisać aktywność online do zweryfikowanej osoby: World (dawniej Worldcoin), Proof of Personhood czy Human (dawniej Gitcoin) Passport. Ich zwolennicy liczą, że nagradzanie realnych twórców i podniesienie kosztu nadużyć przywróci równowagę. Przeciwnicy ostrzegają przed nową formą bramkowania dostępu i ryzykiem dla prywatności. Niezależnie od podejścia, problem, który mają adresować, nie zniknie sam: gdy coraz więcej codziennych czynności przejmują agenci, środowisko, w którym poruszają się użytkownicy, będzie coraz bardziej zautomatyzowane.
Jak to policzyć? Ważne są metodologia i motywacje
Warto zachować chłodną głowę wobec liczb. „Udział botów w ruchu” to co innego niż „udział treści AI w konsumowanych materiałach”, a każde z tych zjawisk mierzy się inaczej. Imperva to dostawca rozwiązań bezpieczeństwa, Graphite – firma analityczna, a Galaxy Interactive – fundusz VC. Ich raporty mogą się różnić definicjami, próbkami i interesami. Wspólny mianownik pozostaje jednak spójny: aktywność nie-ludzka rośnie szybciej niż zdolność platform do jej rozpoznawania i filtrowania.
Podobnie trudno o twarde, porównywalne wskaźniki dotyczące platform: szacunki odsetka botów na X i fałszywych kont na Instagramie są wysokie, lecz zależą od przyjętej metody. Mimo to korelacja z jakościową obserwacją użytkowników – zalew powtarzalnych postów, „puste” interakcje, znikanie rozmów do zamkniętych kanałów – jest uderzająca.
Co dalej
„Martwy internet” nie oznacza braku ludzi, lecz zmianę układu sił: maszyny produkują i konsumują coraz większą część ruchu, a ludzie wycofują się do mniejszych, zaufanych przestrzeni. Jeśli nic się nie zmieni w systemie bodźców, treść będzie optymalizowana pod algorytmy i sztuczne metryki, a nie pod wartość dla odbiorcy. Korekta może przyjść z dwóch stron: z kosztów – gdy platformy uczynią oszustwo droższym – i z tożsamości – gdy „dowód człowieczeństwa” stanie się łatwy w użyciu, a zarazem prywatny. W przeciwnym razie coraz częściej będziemy świadkami rozmów maszyn z maszynami, w których człowiek jest już tylko statystą.
