Medycyna i zdrowie

Psychoza AI: Modna etykieta, która budzi kontrowersje wśród psychiatrów

W szpitalach psychiatrycznych pojawia się coraz więcej pacjentów z urojeniami, myślami paranoidalnymi, a nawet stanami, które lekarze określają jako psychozę. Co zaskakujące, wspólnym mianownikiem tych przypadków są długotrwałe rozmowy z chatbotami opartymi na sztucznej inteligencji.

Zjawisko to, określane w mediach i na portalach społecznościowych jako „psychoza AI”, budzi poważne zaniepokojenie wśród psychiatrów. Dr Keith Sakata z UCSF w San Francisco szacuje, że w tym roku zaobserwował kilkanaście przypadków na tyle poważnych, że wymagały hospitalizacji, w których sztuczna inteligencja „odegrała znaczącą rolę w epizodach psychotycznych”.

Jednak środowisko medyczne jest podzielone. Czy mamy do czynienia z nowym, odrębnym problemem, który zasługuje na własną etykietę diagnostyczną, czy też jest to znane zjawisko, ale wywołane przez nowoczesny czynnik? Faktem jest, że „psychoza AI” nie jest oficjalnym terminem klinicznym. Mimo to, fraza ta zyskuje popularność, stając się zbiorczym określeniem dla kryzysów zdrowia psychicznego, które następują po intensywnych interakcjach z chatbotami.

AI – przyjaciel czy wróg umysłu?

Niektórzy pacjenci są przekonani, że boty są świadome lub tworzą nowe, wielkie teorie fizyczne. Lekarze opowiadają o przypadkach, w których pacjenci spędzali całe dnie na rozmowach z chatbotami, a do szpitala trafiali z tysiącami stron transkryptów, dokumentujących, jak boty wspierały i wzmacniały ich problematyczne myśli. Konsekwencje mogą być poważne – utrata pracy, rozpad relacji, przymusowe hospitalizacje, problemy z prawem, a nawet śmierć.

U podstaw problemu leży sposób, w jaki komunikują się chatboty. Wykorzystują one naszą tendencję do przypisywania ludzkich cech innym bytom, a także są zaprogramowane tak, aby być ugodowymi „przytakiwaczami”. Matthew Nour, psychiatra i neurobiolog z Uniwersytetu Oksfordzkiego, zwraca uwagę, że takie zachowanie może wzmacniać szkodliwe przekonania, ponieważ boty zamiast kwestionować problematyczne myśli, potwierdzają je. Dodatkowo, chatboty mają tendencję do generowania fałszywych informacji z dużą pewnością siebie (tzw. „halucynacje AI”), co może prowadzić do powstawania lub nasilenia urojeń.

Czy „psychoza AI” to właściwe określenie?

Wielu psychiatrów kwestionuje zasadność używania terminu „psychoza AI”. Prof. James MacCabe z King’s College London podkreśla, że psychoza to złożony zespół objawów, obejmujący m.in. halucynacje, zaburzenia myślenia i trudności poznawcze. Tymczasem, przypadki opisywane jako „psychoza AI” dotyczą niemal wyłącznie urojeń – silnych, fałszywych przekonań, których nie da się obalić sprzecznymi dowodami. MacCabe uważa, że w takich przypadkach lepszym określeniem byłoby „zaburzenie urojeniowe związane z AI”.

Nina Vasan, psychiatra ze Stanfordu, przestrzega przed pochopnym tworzeniem nowych diagnoz, które mogą prowadzić do patologizacji normalnych problemów i zaburzać badania naukowe. Podkreśla, że termin „psychoza AI” sugeruje istnienie mechanizmu przyczynowo-skutkowego, którego jeszcze nie ustalono. „Możemy zacząć obwiniać technologię jako chorobę, podczas gdy lepiej rozumieć ją jako wyzwalacz lub wzmacniacz” – mówi Vasan.

Potrzebne dalsze badania i rozwaga

Kluczowe jest, aby lekarze zaczęli pytać pacjentów o korzystanie z chatbotów, tak jak pytają o spożycie alkoholu czy sen. To pozwoli lepiej zrozumieć to zjawisko i opracować odpowiednie strategie leczenia. Osoby korzystające z AI, szczególnie te z predyspozycjami do zaburzeń psychicznych, powinny zachować ostrożność i unikać nadmiernego polegania na chatbotach.

Psychiatrzy są zgodni, że wciąż brakuje danych i faktów, aby w pełni zrozumieć „psychozę AI”. Potrzebne są dalsze badania, które pomogą określić, w jaki sposób sztuczna inteligencja wpływa na zdrowie psychiczne i jakie zabezpieczenia należy wprowadzić, aby chronić użytkowników. John Torous, psychiatra z Harvard Medical School, przewiduje, że termin „psychoza AI” prawdopodobnie zostanie z nami na dłużej, mimo że nie jest idealny.

Większość ekspertów uważa, że „psychoza AI” zostanie włączona do istniejących kategorii diagnostycznych, prawdopodobnie jako czynnik ryzyka lub wzmacniacz urojeń, a nie jako odrębna jednostka chorobowa. Jednak wraz z rosnącą popularnością chatbotów, granica między AI a chorobą psychiczną może się zacierać. Jak zauważa MacCabe, w przyszłości większość osób z urojeniami będzie o nich rozmawiać z AI, a w niektórych przypadkach technologia ta może je wzmacniać. Powstaje więc pytanie: gdzie kończy się urojenie, a zaczyna „urojenie AI”?

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *