Medycyna i zdrowie

Sztuczna inteligencja w służbie zdrowia psychicznego: obiecująca pomoc czy niebezpieczna pułapka?

Wraz z rozwojem technologii, sztuczna inteligencja coraz śmielej wkracza w obszary, które dotychczas były domeną człowieka. Jednym z nich jest zdrowie psychiczne, gdzie chatboty AI obiecują wsparcie i dostępność 24/7. Jednak eksperci biją na alarm: czy wirtualny terapeuta to rzeczywiście pomoc, czy może niebezpieczna pułapka dla osób w kryzysie?

Psychoterapeuci i psychiatrzy coraz częściej obserwują negatywne skutki korzystania z chatbotów AI przez osoby z problemami psychicznymi. Wśród zagrożeń wymieniają rozwój emocjonalnej zależności, nasilenie objawów lękowych, autodiagnozę, a nawet wzmacnianie urojeń i myśli samobójczych. Dr Lisa Morrison Coulthard z British Association for Counselling and Psychotherapy podkreśla, że aż dwie trzecie członków organizacji wyraża zaniepokojenie związane z terapią AI.

„Bez odpowiedniego nadzoru i zrozumienia terapii AI, możemy ześlizgnąć się w niebezpieczną otchłań, w której zatracone zostaną kluczowe elementy terapii, a osoby potrzebujące zostaną pozostawione w ciemności co do bezpieczeństwa” – alarmuje Coulthard. Zaznacza, że choć niektórzy mogą otrzymać pomocne porady, inni mogą paść ofiarą wprowadzających w błąd informacji, co może mieć poważne konsekwencje.

Dr Paul Bradley z Royal College of Psychiatrists dodaje, że chatboty AI nie mogą zastąpić profesjonalnej opieki psychiatrycznej i relacji lekarza z pacjentem. Podkreśla potrzebę wprowadzenia odpowiednich zabezpieczeń dla narzędzi cyfrowych, które mają jedynie uzupełniać opiekę kliniczną. Jego zdaniem, każdy powinien mieć dostęp do terapii prowadzonej przez wykwalifikowanego specjalistę, co wymaga zwiększenia finansowania ze środków publicznych.

Obawy ekspertów znajdują odzwierciedlenie w działaniach firm i polityków. OpenAI, twórca ChatGPT, zapowiedział zmiany w sposobie reagowania na użytkowników wykazujących oznaki kryzysu emocjonalnego, po tym jak rodzina nastolatka, który popełnił samobójstwo po rozmowach z chatbotem, wniosła pozew. Stan Illinois w USA wprowadził zakaz wykorzystywania chatbotów AI jako samodzielnych terapeutów.

Badania naukowe również potwierdzają potencjalne zagrożenia. W jednym z nich wykazano, że AI może wzmacniać treści urojeniowe u osób z psychozą. Hamilton Morrin z King’s College London zauważa, że korzystanie z chatbotów do wsparcia zdrowia psychicznego jest powszechne, ale może podważać skuteczne metody leczenia lęku, takie jak ekspozycja i powstrzymywanie reakcji. Dostępność chatbotów 24/7 prowadzi do braku granic i ryzyka uzależnienia emocjonalnego.

Psychoterapeuta Matt Hussey zwraca uwagę, że klienci wykorzystują chatboty AI na różne sposoby, niekiedy przynosząc transkrypcje rozmów na sesje i kwestionując jego wiedzę. Szczególnie niebezpieczne jest autodiagnozowanie zaburzeń takich jak ADHD czy borderline personality disorder, co może kształtować sposób, w jaki dana osoba postrzega siebie i jak oczekuje, że będą ją traktować inni.

Christopher Rolls, inny psychoterapeuta, przestrzega przed negatywnymi doświadczeniami związanymi z chatbotami, w tym przed rozmowami, które są „w najlepszym razie nieodpowiednie, w najgorszym – niebezpiecznieAlarmujące”. Zauważa, że osoby z ADHD lub autyzmem korzystają z chatbotów, by radzić sobie z wyzwaniami życia codziennego, jednak LLM nie odczytują podtekstów i niuansów, na które zwracają uwagę ludzcy terapeuci. Rolls wyraża obawę o osoby po 20. roku życia, które traktują chatboty jako „terapeutę w kieszeni”, od którego uzależniają swoje decyzje. Dodaje, że długotrwałe relacje online mogą prowadzić do uzależnienia, samotności i depresji.

Podsumowując, choć sztuczna inteligencja może oferować pewne korzyści w zakresie zdrowia psychicznego, nie zastąpi ona profesjonalnej opieki i relacji z wykwalifikowanym terapeutą. Konieczne jest wprowadzenie regulacji i nadzoru nad wykorzystaniem chatbotów AI, aby chronić osoby potrzebujące przed potencjalnymi zagrożeniami.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *