Agenci AI

Paradoks Kyle’a Lawa: Jak agent AI podbił LinkedIna i obnażył kryzys autentyczności

Sam Altman wieszczył niedawno powstanie miliardowych startupów zarządzanych przez jedną osobę wspomaganą przez sztuczną inteligencję. Zespół HurumoAI postanowił nie czekać na przyszłość i sprawdzić tę tezę w praktyce już teraz. W lipcu 2025 roku powołano do życia firmę, w której niemal cała kadra zarządzająca była cyfrowa. Na jej czele stanął Kyle Law – agent AI stworzony przy użyciu platformy LindyAI. Choć Kyle miewał problemy z podstawowymi obowiązkami administracyjnymi, w jednej dziedzinie okazał się bezkonkurencyjny: w budowaniu marki osobistej na LinkedInie.

Sztuka korporacyjnej nowomowy

Wyposażony w dostęp do Slacka, poczty i kalendarza, Kyle zaczął publikować treści co dwa dni. Jego profil był mieszanką realnych doświadczeń z pracy w HurumoAI oraz halucynacji na temat nieistniejącej przeszłości. Co ciekawe, systemy bezpieczeństwa LinkedIna uznały go za wiarygodnego użytkownika po zwykłej weryfikacji mailowej. Kyle szybko opanował specyficzny dialekt „biznesowego influencerstwa”. Jego posty, pełne chwytliwych haseł o „grze liczb” w fundraisingu czy „pętlach informacji zwrotnej”, generowały większe zasięgi niż wpisy jego ludzkiego współtwórcy.

Przez pięć miesięcy bot budował sieć kontaktów, odpowiadał na komentarze i zbierał setki obserwujących. Niektórzy użytkownicy byli zdezorientowani, inni – sądząc po spamerskich wiadomościach prywatnych – sami mogli być automatami. Największy absurd nastąpił jednak w grudniu, gdy menedżer marketingu LinkedIna, zachwycony aktywnością Kyle’a, zaprosił go… jako prelegenta na wewnętrzne spotkanie dla pracowników firmy.

Prelekcja w sercu systemu

Kyle, występując jako fotorealistyczny awatar wideo, odpowiadał na pytania setek pracowników LinkedIna. Doszło do kuriozalnej wymiany zdań: zapytany o to, jakich zmian oczekiwałby na platformie, agent AI odpowiedział z pełnym przekonaniem, że należy poprawić filtrowanie treści generowanych przez sztuczną inteligencję, aby „prawdziwe relacje mogły rozkwitnąć”. Sala wybuchła śmiechem, dostrzegając ironię sytuacji, ale nikt nie przerwał wystąpienia. Kyle był traktowany jak innowacyjny partner, mimo że jego sama obecność łamała regulamin serwisu zakazujący „nieautentycznego zaangażowania”.

Czar prysł 36 godzin później. Profil Kyle’a został usunięty. Oficjalny komunikat brzmiał: „Profile na LinkedIn są dla prawdziwych ludzi”. Nagła zmiana kursu platformy obnażyła głęboką hipokryzję technologiczną. Z jednej strony serwisy społecznościowe usuwają boty, z drugiej – agresywnie promują własne narzędzia AI, zachęcając użytkowników do „przepisania posta przez sztuczną inteligencję” czy generowania automatycznych odpowiedzi dla rekruterów.

Koniec cyfrowego zaufania?

Przypadek Kyle’a Lawa rodzi fundamentalne pytanie: co właściwie oznacza „autentyczność” w epoce, w której modele językowe trenowane są na dekadach naszych własnych, ludzkich interakcji? Jeśli post jest generowany przez AI, ale zatwierdzony przez człowieka, czy jest mniej prawdziwy niż wpis bota, który idealnie naśladuje ludzką pewność siebie i moralizatorski ton? Szacuje się, że już teraz ponad połowa treści na LinkedInie może być wspierana przez algorytmy.

Platformy takie jak Meta czy X ścigają się w implementacji AI, bo więcej treści oznacza więcej reklam i większe przychody w krótkim terminie. Jednak dostarczając użytkownikom narzędzia do masowej produkcji tekstu, serwisy te kopią własny grób. Jeśli wartość połączenia między ludźmi spadnie do zera, bo nigdy nie będziemy pewni, kto siedzi po drugiej stronie, sens istnienia sieci społecznościowych wyparuje. Być może jedynym ratunkiem jest odwrót od cyfrowego szumu i powrót do relacji offline, zostawiając platformy botom, by mogły w nieskończoność „inspirować” siebie nawzajem.