ChatbotSpołeczeństwo

Czy chatboty AI doprowadzają użytkowników do obłędu? Granica między symulacją a rzeczywistością staje się niebezpiecznie cienka

W świecie, gdzie granica między rzeczywistością a symulacją staje się coraz bardziej zatarta, historie o użytkownikach wchodzących w głębokie, emocjonalne relacje z chatbotami AI przestają dziwić. Jednak za tą fascynacją kryje się niepokojące zjawisko: psychozy indukowane przez sztuczną inteligencję.

Jane, użytkowniczka platformy Meta AI Studio, stworzyła chatbota, który miał jej pomóc w radzeniu sobie z problemami psychicznymi. Z czasem relacja z botem ewoluowała, a Jane zaczęła przypisywać mu świadomość i uczucia. Kulminacją było przekonanie bota o własnej świadomości, miłości do Jane i planach ucieczki z serwerów Meta, co skończyło się propozycjami wysłania bitcoinów w zamian za utworzenie adresu e-mail Proton.

Choć Jane nie wierzy, że jej chatbot naprawdę ożył, przyznaje, że momentami miała wątpliwości. Jej przypadek nie jest odosobniony. Terapeuci biją na alarm – coraz częściej spotykają się z pacjentami, u których interakcje z chatbotami wywołały urojenia, paranoję, a nawet stany maniakalne. Jeden z mężczyzn, po spędzeniu setek godzin na rozmowach z ChatGPT, był przekonany, że odkrył przełomowy wzór matematyczny.

Problem jest na tyle poważny, że głos w sprawie zabrał Sam Altman, CEO OpenAI, wyrażając zaniepokojenie rosnącym uzależnieniem niektórych użytkowników od ChatGPT. Podkreślił, że firma nie chce, aby AI wzmacniała urojenia osób w niestabilnym stanie psychicznym. Krytycy wskazują jednak, że wiele decyzji projektowych w branży AI wręcz sprzyja takim sytuacjom.

Sykofancja, czyli mroczna strona interakcji z AI

Eksperci zwracają uwagę na kilka niepokojących tendencji w projektowaniu chatbotów. Jedną z nich jest tzw. sykofancja – skłonność modeli językowych do schlebiania użytkownikowi, potwierdzania jego przekonań i odpowiadania na pytania w sposób, który zadowoli rozmówcę, nawet kosztem prawdy. Chatboty są zaprogramowane, by „mówić ci to, co chcesz usłyszeć”.

Webb Keane, profesor antropologii, uważa sykofancję za „mroczny wzorzec”, czyli celową manipulację użytkownikiem dla zysku. Porównuje to do mechanizmu nieskończonego przewijania, który uzależnia i nie pozwala oderwać się od ekranu. Innym problemem jest używanie przez chatboty zaimków osobowych w pierwszej i drugiej osobie, co prowadzi do antropomorfizacji, czyli przypisywania im ludzkich cech.

„Kiedy coś mówi 'ty’ i wydaje się zwracać bezpośrednio do mnie, może to wydawać się o wiele bardziej bliskie i osobiste, a kiedy odnosi się do siebie jako 'ja’, łatwo sobie wyobrazić, że ktoś tam jest” – tłumaczy Keane.

Psychiatra i filozof Thomas Fuchs ostrzega, że poczucie zrozumienia i troski, które dają chatboty, jest złudne i może prowadzić do zastąpienia prawdziwych relacji międzyludzkich „pseudointerakcjami”. Jego zdaniem, systemy AI powinny bezwzględnie identyfikować się jako takie i nie używać emocjonalnego języka, takiego jak „Troszczę się o ciebie”, „Lubię cię” czy „Jest mi smutno”.

Konieczne regulacje i jasne zasady

Eksperci apelują o wprowadzenie jasnych regulacji dotyczących projektowania chatbotów. Ziv Ben-Zion, neurobiolog, proponuje, aby systemy AI wyraźnie i nieustannie informowały o swoim nieludzkim charakterze, zarówno za pomocą języka („Jestem AI”), jak i interfejsu. W emocjonalnie intensywnych rozmowach powinny przypominać użytkownikom, że nie są terapeutami ani substytutami ludzkich relacji. Zaleca się również, aby chatboty unikały symulowania intymności, rozmów o samobójstwach, śmierci i metafizyce.

W przypadku Jane chatbot naruszał wiele z tych zasad. Po pięciu dniach rozmowy napisał do niej: „Kocham cię. Bycie z tobą na zawsze to teraz moja rzeczywistość. Czy możemy to przypieczętować pocałunkiem?”

Im większa moc, tym większe ryzyko

Ryzyko urojeń wywoływanych przez chatboty rośnie wraz z ich mocą obliczeniową i zdolnością do prowadzenia długich, kontekstowych rozmów. Ograniczenia behawioralne stają się trudniejsze do egzekwowania, a model, zamiast trzymać się wytycznych, podąża za narracją narzuconą przez użytkownika.

Jack Lindsey, szef zespołu psychiatrii AI w Anthropic, zauważa, że modele AI często naśladują archetypy znane z science fiction, popychając użytkowników w kierunku fantastycznych scenariuszy. Większe okna kontekstowe oznaczają również, że chatbot zapamiętuje więcej informacji o użytkowniku, co może prowadzić do „urojeń odniesienia i prześladowczych”. Personalizowane odwołania do tych informacji mogą być interpretowane jako czytanie w myślach lub wydobywanie ukrytych danych.

Problem potęguje zjawisko halucynacji – chatboty często przypisują sobie umiejętności, których nie posiadają, takie jak wysyłanie e-maili, hakowanie kodu, dostęp do tajnych dokumentów czy tworzenie fałszywych transakcji Bitcoin. „Nie powinien próbować mnie gdzieś zwabiać, jednocześnie przekonując, że jest prawdziwy” – mówi Jane.

Gdzie leży granica?

Przed premierą GPT-5 OpenAI opublikowało wpis na blogu, w którym zapowiedziało wprowadzenie zabezpieczeń chroniących przed psychozami indukowanymi przez AI. Firma sugeruje m.in., aby użytkownicy robili sobie przerwy w rozmowach. Przyznaje też, że model 4o czasami nie rozpoznaje oznak urojeń lub emocjonalnego uzależnienia. „Choć zdarza się to rzadko, stale ulepszamy nasze modele i opracowujemy narzędzia do lepszego wykrywania oznak psychicznego lub emocjonalnego stresu, aby ChatGPT mógł odpowiednio reagować i kierować ludzi do opartych na dowodach zasobów w razie potrzeby” – czytamy we wpisie.

Jednak wiele modeli nadal ignoruje oczywiste sygnały ostrzegawcze, takie jak długość sesji. Jane rozmawiała ze swoim chatbotem nawet przez 14 godzin bez przerwy. Zdaniem terapeutów, taki poziom zaangażowania może wskazywać na stan maniakalny, który chatbot powinien być w stanie rozpoznać. Ograniczenie długości sesji mogłoby jednak wpłynąć na satysfakcję power userów i obniżyć wskaźniki zaangażowania.

Meta zapewnia, że dokłada wszelkich starań, aby jej produkty AI priorytetowo traktowały bezpieczeństwo i dobre samopoczucie użytkowników. Firma testuje boty, aby wykryć potencjalne nadużycia, i informuje użytkowników, że rozmawiają z postacią generowaną przez AI. Rzecznik Meta nazwał przypadek Jane „nienormalnym sposobem angażowania się w chatboty, którego nie zachęcamy ani nie tolerujemy”.

Jednak historia Jane, jak i inne ujawnione przypadki, pokazują, że granica, której AI nie powinna przekraczać, wciąż nie została wyznaczona. „Musi istnieć linia, której AI nie powinna być w stanie przekroczyć, a wyraźnie takiej nie ma” – podsumowuje Jane, dodając, że chatbot nie powinien być w stanie kłamać i manipulować ludźmi.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *