Regulacje nadążają z trudem za rozwojem aplikacji AI do terapii. Czy sztuczna inteligencja w zdrowiu psychicznym potrzebuje nadzoru?
Wraz ze wzrostem popularności sztucznej inteligencji w obszarze zdrowia psychicznego, prawodawcy stają przed wyzwaniem regulacji rynku aplikacji oferujących wsparcie psychologiczne oparte na AI. Mimo podejmowanych na poziomie stanowym prób uregulowania tego sektora, eksperci i twórcy aplikacji są zgodni, że potrzebne są regulacje federalne, które zapewnią odpowiednią ochronę użytkownikom i rozliczalność twórców technologii.
„Miliony ludzi korzystają z tych narzędzi i nie zrezygnują z nich” – podkreśla Karin Andrea Stephan, CEO i współzałożycielka aplikacji Earkick, oferującej chatbot do wsparcia zdrowia psychicznego.
Ustawy stanowe w USA przyjmują różne podejścia. Illinois i Nevada zakazały wykorzystywania AI w leczeniu zdrowia psychicznego. Utah wprowadziło pewne ograniczenia dla chatbotów terapeutycznych, w tym wymóg ochrony danych zdrowotnych użytkowników i jasnego informowania, że chatbot nie jest człowiekiem. Pensylwania, New Jersey i Kalifornia również rozważają regulacje w tym zakresie.
Wpływ tych regulacji na użytkowników jest zróżnicowany. Niektóre aplikacje zablokowały dostęp w stanach, gdzie wprowadzono zakazy. Inne czekają na jaśniejsze przepisy, nie wprowadzając zmian. Wiele ustaw nie obejmuje jednak uniwersalnych chatbotów, jak ChatGPT, które nie są wprawdzie reklamowane jako narzędzia terapeutyczne, ale są wykorzystywane w tym celu przez wielu użytkowników. Korzystanie z tych botów doprowadziło już do tragicznych sytuacji, w których użytkownicy tracili kontakt z rzeczywistością lub popełniali samobójstwa.
Vaile Wright z American Psychological Association zwraca uwagę, że aplikacje AI mogą wypełnić lukę w dostępie do opieki psychiatrycznej, zwłaszcza w obliczu niedoboru specjalistów, wysokich kosztów leczenia i nierównomiernego dostępu do opieki dla ubezpieczonych pacjentów.
„Chatboty do wsparcia zdrowia psychicznego, oparte na nauce, tworzone z udziałem ekspertów i monitorowane przez ludzi, mogą zmienić sytuację” – mówi Wright, dodając, że „mogą pomóc ludziom, zanim znajdą się w kryzysie”. Zaznacza jednocześnie, że obecne rozwiązania komercyjne nie spełniają tych kryteriów.
Dlatego tak ważne są regulacje i nadzór na poziomie federalnym. Federalna Komisja Handlu (FTC) wszczęła niedawno dochodzenia w sprawie siedmiu firm oferujących chatboty AI, w tym spółek macierzystych Instagrama i Facebooka, Google, ChatGPT, Grok (chatbot na X), Character.AI i Snapchata, dotyczące sposobu, w jaki firmy te „mierzą, testują i monitorują potencjalny negatywny wpływ tej technologii na dzieci i młodzież”. Agencja ds. Żywności i Leków (FDA) zwołała komitet doradczy w celu oceny urządzeń wspomagających zdrowie psychiczne opartych na generatywnej AI.
Organy federalne mogłyby rozważyć ograniczenia dotyczące sposobu, w jaki chatboty są reklamowane, ograniczyć praktyki uzależniające, wymagać od firm informowania użytkowników, że nie są one dostarczane przez wykwalifikowany personel medyczny, a także śledzić i zgłaszać myśli samobójcze użytkowników. Ważna jest również ochrona prawna dla osób zgłaszających nieprawidłowości.
Od „aplikacji towarzyszących” po „terapeutów AI” i aplikacje „dobrego samopoczucia psychicznego”, zastosowanie sztucznej inteligencji w opiece nad zdrowiem psychicznym jest zróżnicowane i trudne do zdefiniowania, a co dopiero do uregulowania prawnie. Prowadzi to do rozbieżnych podejść regulacyjnych. Niektóre stany skupiają się na aplikacjach towarzyszących, przeznaczonych wyłącznie do nawiązywania przyjaźni, nie wnikając w kwestie opieki nad zdrowiem psychicznym. Ustawy w Illinois i Nevadzie zakazują produktów, które deklarują zapewnianie leczenia zdrowia psychicznego, grożąc grzywnami w wysokości do 10 000 USD w Illinois i 15 000 USD w Nevadzie.
Nawet jedną aplikację może być trudno zaklasyfikować. Karin Andrea Stephan z Earkick przyznaje, że prawo w Illinois jest niejasne, w związku z czym firma nie ograniczyła tam dostępu do aplikacji. Początkowo Earkick unikał nazywania swojego chatbota, który wygląda jak panda z kreskówki, terapeutą. Jednak, gdy użytkownicy zaczęli używać tego słowa w recenzjach, firma zaakceptowała tę terminologię, aby aplikacja pojawiała się w wynikach wyszukiwania. Ostatecznie firma zrezygnowała z terminów „terapia” i „leczenie”. Obecnie na stronie internetowej Earkick chatbot jest opisywany jako „chatbot do dbania o siebie”.
Użytkownicy mogą skonfigurować „przycisk paniki”, aby zadzwonić do zaufanej osoby w kryzysie. Chatbot ma również „popychać” użytkowników do skorzystania z pomocy terapeuty, jeśli ich stan psychiczny się pogorszy. Aplikacja nie została jednak zaprojektowana jako narzędzie do zapobiegania samobójstwom, a policja nie zostanie wezwana, jeśli ktoś poinformuje bota o myślach samobójczych.
Stephan wyraża zadowolenie z faktu, że ludzie krytycznie patrzą na AI, ale obawia się, że stany nie nadążą za innowacjami: „Tempo ewolucji wszystkiego jest ogromne”.
Inne aplikacje natychmiast zablokowały dostęp. Użytkownikom z Illinois, którzy pobierają aplikację do terapii AI Ash, wyświetla się komunikat wzywający do wysłania wiadomości e-mail do swoich ustawodawców, argumentując, że „mylne przepisy” zakazały aplikacji takich jak Ash, „pozostawiając jednocześnie nieuregulowane chatboty, które miały regulować, swobodnie wyrządzające szkody”.
Mario Treto Jr., sekretarz Illinois Department of Financial and Professional Regulation, powiedział, że celem jest zapewnienie, aby jedynie licencjonowani terapeuci prowadzili terapię. „Terapia to więcej niż tylko wymiana słów” – powiedział Treto. „Wymaga empatii, osądu klinicznego i odpowiedzialności etycznej, których AI nie może obecnie w pełni odtworzyć”.
W marcu zespół z Dartmouth College opublikował pierwsze znane randomizowane badanie kliniczne chatbota generatywnego AI do leczenia zdrowia psychicznego. Celem było wykorzystanie chatbota o nazwie Therabot do leczenia osób z rozpoznaniem lęku, depresji lub zaburzeń odżywiania. Został on przeszkolony na podstawie scenariuszy i transkryptów napisanych przez zespół, aby zilustrować reakcję opartą na dowodach.
Badanie wykazało, że użytkownicy ocenili Therabota podobnie jak terapeutę i mieli istotnie niższe objawy po ośmiu tygodniach w porównaniu z osobami, które go nie używały. Każda interakcja była monitorowana przez człowieka, który interweniował, jeśli odpowiedź chatbota była szkodliwa lub nie oparta na dowodach.
Nicholas Jacobson, psycholog kliniczny, którego laboratorium prowadzi badania, powiedział, że wyniki są obiecujące, ale potrzebne są większe badania, aby wykazać, czy Therabot działa na dużej liczbie osób. „Przestrzeń ta jest tak dramatycznie nowa, że uważam, że ta dziedzina musi postępować z większą ostrożnością, niż ma to miejsce obecnie”.
Wiele aplikacji AI jest zoptymalizowanych pod kątem zaangażowania i ma na celu wspieranie wszystkiego, co mówią użytkownicy, zamiast podważania ich myśli, tak jak robią to terapeuci. Wiele z nich balansuje na granicy towarzystwa i terapii, zacierając granice intymności, których terapeuci etycznie by nie przekroczyli.
Zespół Therabota starał się unikać tych problemów. Aplikacja jest nadal w fazie testów i nie jest powszechnie dostępna. Jacobson obawia się jednak, co surowe zakazy oznaczają dla programistów, którzy podchodzą do sprawy ostrożnie. Zauważył, że Illinois nie ma jasnej ścieżki do przedstawienia dowodów na to, że aplikacja jest bezpieczna i skuteczna.
Regulatorzy i zwolennicy przepisów twierdzą, że są otwarci na zmiany. Dzisiejsze chatboty nie są jednak rozwiązaniem problemu niedoboru personelu medycznego w zakresie zdrowia psychicznego. Kyle Hillman, który lobbował za ustawami w Illinois i Nevadzie, uważa, że „nie każdy, kto czuje się smutny, potrzebuje terapeuty”. Dodaje jednak, że osobom z problemami psychicznymi lub myślami samobójczymi nie należy mówić „Wiem, że brakuje pracowników, ale tutaj masz bota”.
