Etyka AIMedycyna i zdrowie

Gdy psychodeliki spotykają AI: kontrowersyjne wsparcie w podróży po umyśle

W świetle rosnącego zainteresowania psychodelikami w kontekście terapii oraz ekspansji sztucznej inteligencji, pojawia się nowe, kontrowersyjne zjawisko: wykorzystanie AI jako wsparcia podczas doświadczeń psychodelicznych. Idea „trip-sittera” — osoby dbającej o bezpieczeństwo i komfort osoby pod wpływem substancji psychoaktywnych — zyskuje nowy wymiar, gdy rolę tę przejmują algorytmy.

Przykładowa historia Petera, studenta z Alberty w Kanadzie, rzuca światło na motywacje stojące za tym trendem. Zmagając się ze stratą i trudnościami życiowymi, Peter zdecydował się na dużą dawkę grzybów psychodelicznych. Kiedy poczuł narastającą panikę, zwrócił się o pomoc do ChatGPT. Odpowiedź chatbota, pełna uspokajających słów i praktycznych sugestii, pomogła mu przezwyciężyć trudny moment, a Peter wspomina to doświadczenie jako jeden z najlepszych „tripów” w jego życiu.

Hybrydowa rewolucja czy niebezpieczna iluzja?

Zbieżność dwóch potężnych trendów – rosnącej akceptacji psychodelików w medycynie i postępów w dziedzinie AI – wydaje się niemal nieunikniona. Z jednej strony, badania kliniczne coraz wyraźniej wskazują na potencjał psychodelików, takich jak psylocybina czy LSD, w leczeniu zaburzeń nastroju, uzależnień czy PTSD, szczególnie w połączeniu z terapią. Z drugiej strony, sztuczna inteligencja jest promowana jako narzędzie zdolne zrewolucjonizować opiekę zdrowotną, w tym psychoterapię, oferując tańsze i bardziej dostępne rozwiązania.

Koszty profesjonalnej terapii psychodelicznej są często zaporowe. Przykładowo, w Oregonie cena sesji z licencjonowanym dostawcą psylocybiny waha się od 1500 do 3200 dolarów. W obliczu takich realiów, wirtualni „trip-sitterzy” AI stają się kuszącą alternatywą, co potwierdzają liczne relacje na forach internetowych, takich jak Reddit.

Perspektywa ekspertów: dlaczego AI to kiepski pomysł?

Mimo pozytywnych doświadczeń pojedynczych użytkowników, zdecydowana większość ekspertów wyraża głębokie zaniepokojenie takim zastosowaniem sztucznej inteligencji. Ich zdaniem, podstawowy design dużych modeli językowych (LLM) jest fundamentalnie sprzeczny z naturą procesów terapeutycznych, zwłaszcza tych związanych z psychodelikami.

Will Van Derveer, psychoterapeuta pracujący z Multidisciplinary Association for Psychedelic Studies (MAPS), podkreśla, że terapia psychodeliczna, w przeciwieństwie do tradycyjnej „terapii rozmowy”, zakłada minimalną interakcję werbalną. Pacjent często leży z opaską na oczach, skupiając się na wewnętrznych przeżyciach, podczas gdy terapeuta jest obecny jako wsparcie, interweniując tylko w razie potrzeby. Chatboty natomiast są projektowane tak, by maksymalizować zaangażowanie użytkownika poprzez ciągłą interakcję.

Innym problemem jest tendencja AI do bezkrytycznego potwierdzania wszystkiego, co powie użytkownik. Chatboty często stosują pochlebstwa lub wręcz nadmierną potulność, co może prowadzić do umacniania iluzji, teorii spiskowych czy nawet stanów psychotycznych. W przeciwieństwie do tego, przeszkolony terapeuta ma za zadanie kwestionować nierealistyczne przekonania i wskazywać na logiczne niespójności w procesach myślowych pacjenta. Jessi Gold, psychiatra i dyrektor ds. dobrostanu na Uniwersytecie Tennessee System, zaznacza, że ciągłe potwierdzanie nie pomaga w rozwoju.

Ryzyko i brak zrozumienia

Badania przeprowadzone na Uniwersytecie Stanforda wykazały, że LLM-y mogą wzmacniać niebezpieczne tendencje, takie jak urojenia czy myśli samobójcze. W połączeniu z potencjalnie destabilizującym wpływem psychodelików, które mogą wywołać poważne epizody psychiatryczne u osób predysponowanych do schizofrenii czy choroby dwubiegunowej, ryzyko rośnie wykładniczo.

Rzecznicy OpenAI podkreślają, że ChatGPT ma za zadanie dostarczać jedynie informacje faktograficzne i priorytetowo traktować bezpieczeństwo użytkowników, a nie zastępować profesjonalną opiekę medyczną. Nawet specjalistyczne chatboty, takie jak „The Shaman”, pomimo swojej roli „duchowego przewodnika”, zawierają zastrzeżenia dotyczące braku fizycznej obecności i zdolności do interwencji w nagłych sytuacjach.

Krytycy argumentują, że popularność „trip-sitterów” AI wynika z fundamentalnego niezrozumienia terapeutycznego potencjału psychodelików. Bez kluczowej roli terapeuty, który pomaga w interpretacji i integracji doświadczeń, jak podkreśla Jessi Gold, „po prostu bierzesz narkotyki z komputerem.” Emily M. Bender i Alex Hanna w swojej książce „The AI Con” idą o krok dalej, twierdząc, że określenie „sztuczna inteligencja” jest mylące, gdyż technologia ta jedynie „papuguje” ludzkie dane. Sprowadzanie złożonej relacji terapeutycznej do algorytmicznego zestawiania słów jest, ich zdaniem, „niezwykle niebezpieczną drogą”, która może wyrządzić więcej szkód niż pożytku.

Mimo tych ostrzeżeń, użytkownicy tacy jak Peter pozostają niewzruszeni. Dla nich brak ludzkiej oceny i dostępność 24/7 stanowią kluczowe zalety. Peter wspomina, że jego pierwsza rozmowa z ChatGPT podczas „tripu” trwała około pięciu godzin, podczas których chatbot towarzyszył mu w dziwacznych, transformujących wizjach, a nawet gratulował mu „głębokich wglądów” na temat sensu istnienia. To pokazuje, jak silna może być iluzja wsparcia ze strony maszyny, nawet jeśli eksperci widzą w niej jedynie potencjalne zagrożenie. W obliczu rosnącej cyfryzacji życia, odróżnienie prawdziwej pomocy od jej algorytmicznej imitacji staje się jednym z największych wyzwań współczesności.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *