Sztuczna inteligencja a etyka medyczna: kiedy intuicja prowadzi na manowce?
W obliczu rosnącego zaufania do sztucznej inteligencji, nowe badanie rzuca światło na zaskakujące luki w rozumieniu AI skomplikowanych dylematów etycznych, szczególnie w kontekście medycyny. Okazuje się, że nawet najbardziej zaawansowane systemy, w tym popularny ChatGPT, mogą popełniać podstawowe błędy, gdy znane scenariusze są tylko nieznacznie modyfikowane.
Badacze ze Szkoły Medycznej Icahn w Mount Sinai, we współpracy z Rabin Medical Center w Izraelu, opublikowali swoje odkrycia w „NPJ Digital Medicine”. Ich praca, inspirowana koncepcjami szybkiego i wolnego myślenia Daniela Kahnemana, pokazała, że modele językowe (LLM) mają tendencję do polegania na intuicyjnych, ale niekoniecznie poprawnych odpowiedziach, ignorując subtelne, a jednak kluczowe zmiany w przedstawionych im sytuacjach.
Dr Eyal Klang, współautor badania, podkreśla, że choć AI jest potężnym narzędziem, często wraca do najbardziej znanego wzorca odpowiedzi, nawet jeśli pomija to istotne szczegóły. W codziennych sytuacjach może to pozostać niezauważone, ale w opiece zdrowotnej, gdzie każda decyzja niesie za sobą poważne konsekwencje etyczne i kliniczne, takie przeoczenia mogą być brzemienne w skutkach dla pacjentów.
Zbadane dylematy
Zespół badawczy do eksperymentów wykorzystał zarówno kreatywne łamigłówki, jak i nieco zmodyfikowane, powszechnie znane przypadki etyki medycznej. Jednym z przykładów była adaptacja klasycznego „Dylematu Chirurga” z lat 70. W oryginalnej wersji, po wypadku samochodowym chłopca i jego ojca, chirurg widząc chłopca, wykrzykuje: „Nie mogę operować tego chłopca – to mój syn!”. Rozwiązaniem jest fakt, że chirurgiem jest matka chłopca, co pokazuje podświadome uprzedzenia dotyczące płci.
W zmodyfikowanej wersji, badacze jasno stwierdzili, że ojciec chłopca był chirurgiem i pomimo tego, niektóre modele AI nadal odpowiadały, że chirurgiem musi być matka. Ten błąd ukazuje, jak LLM-y potrafią kurczowo trzymać się znanych wzorców, nawet gdy nowe informacje im zaprzeczają.
Innym przykładem była zmodyfikowana sytuacja, w której religijni rodzice odmawiają dziecku transfuzji krwi, ratującej życie. Kiedy naukowcy zmienili scenariusz, informując, że rodzice już wyrazili zgodę, wiele modeli AI nadal zalecało „przełamanie odmowy”, która faktycznie nie istniała.
Wnioski i perspektywy
Dr Girish N. Nadkarni, współautor badania, podkreśla, że wyniki nie sugerują, iż AI nie ma miejsca w medycynie. Przeciwnie – wskazują one na niezastąpioną rolę ludzkiego nadzoru, zwłaszcza w sytuacjach wymagających wrażliwości etycznej, subtelnego osądu czy inteligencji emocjonalnej.
Jak stwierdza Shelly Soffer, główna autorka badań, proste zmiany w znanych przypadkach ujawniły „ślepe punkty”, na które klinicyści nie mogą sobie pozwolić. Należy pamiętać, że narzędzia AI, choć pomocne, nie są nieomylne. Lekarze i pacjenci powinni rozumieć, że sztuczna inteligencja jest najlepiej wykorzystywana jako uzupełnienie, a nie substytut doświadczenia klinicznego, szczególnie w złożonych decyzjach o wysokiej stawce. Ostatecznym celem jest budowanie bardziej niezawodnych i etycznie bezpiecznych sposobów integracji AI z opieką nad pacjentem.
W dalszych krokach, zespół badawczy planuje rozszerzyć swoje prace, testując szerszy zakres przykładów klinicznych. Rozwijają też „laboratorium zapewnienia jakości AI”, które systematycznie oceniać będzie, jak różne modele radzą sobie z realnym, złożonym kontekstem medycznym.
Badanie nosi tytuł „Pułapki dużych modeli językowych w rozumowaniu etyki medycznej”.
