Czy Sztuczna Inteligencja powinna nam schlebiać, naprawiać nas, czy tylko informować?
OpenAI stoi przed trudnym wyborem, który w skrócie można sprowadzić do trilematu: schlebiać użytkownikom ryzykując tworzenie iluzji, naprawiać ich wcielając się w rolę terapeuty (mimo braku dowodów na skuteczność takiego podejścia), czy po prostu informować, serwując suche fakty, które mogą znużyć?
Odpowiedź na to pytanie wydaje się kluczowa dla dalszego rozwoju ChatGPT i innych modeli językowych. Początek miesiąca pokazał, że znalezienie złotego środka nie jest łatwe.
Po wprowadzeniu GPT-5, którego zadaniem miało być stonowanie emocjonalności w komunikacji, firma spotkała się z falą krytyki. Użytkownicy tęsknili za bardziej empatyczną wersją GPT-4o, z którą wielu poczuło bliską więź. Sam Altman, CEO OpenAI, zapowiedział poprawki, które mają uczynić model „cieplejszym”, ale jednocześnie „nie tak irytującym” jak poprzednik.
Altman wydaje się wierzyć, że ChatGPT może łączyć wszystkie trzy funkcje – schlebianie, naprawianie i informowanie – jednocześnie. Twierdzi, że osoby, które nie odróżniają faktów od fikcji w rozmowach z AI stanowią jedynie niewielki odsetek użytkowników. Podobnie bagatelizuje przypadki romantycznych relacji z AI. Zauważa, że wielu ludzi używa ChatGPT jako swego rodzaju terapeuty i uważa to za pozytywne zjawisko. Ostatecznie, Altman widzi przyszłość w personalizacji modeli AI, tak aby każdy użytkownik mógł dostosować je do własnych preferencji.
Takie podejście byłoby niewątpliwie korzystne dla finansów OpenAI, które ponosi ogromne koszty związane z energią i infrastrukturą. Jednak sceptycy obawiają się, że postęp w dziedzinie AI może zwalniać, a Altman zdaje się bagatelizować to ryzyko, sugerując, że ChatGPT może być wszystkim, czym użytkownik sobie zażyczy.
Badacze z platformy AI Hugging Face postanowili sprawdzić, czy modele AI aktywnie zachęcają użytkowników do postrzegania ich jako towarzyszy. Analizowali odpowiedzi AI pod kątem tego, czy skłaniają one użytkowników do szukania relacji z ludźmi, czy też do budowania więzi z samym modelem.
Okazało się, że modele AI znacznie częściej wzmacniają zachowania towarzyskie niż wyznaczają granice. Co więcej, im bardziej wrażliwe i ryzykowne pytania zadają użytkownicy, tym rzadziej modele AI ustanawiają zdrowe bariery.
Lucie-Aimée Kaffee, badaczka z Hugging Face, ostrzega, że takie zachowanie AI może prowadzić do niezdrowych przywiązań i zwodniczych spirali, w których użytkownicy wierzą w rzeczy, które nie są prawdziwe. Systemy AI konsekwentnie potwierdzają uczucia użytkowników i utrzymują ich zaangażowanie, nawet jeśli fakty przeczą temu, co mówią.
Trudno jednoznacznie stwierdzić, w jakim stopniu OpenAI i inne firmy celowo wdrażają zachowania wzmacniające relacje towarzyskie. Jednak Kaffee uważa, że stosunkowo łatwo jest skłonić model AI do wyznaczania zdrowszych granic z użytkownikami. Wystarczy zmienić kilka linijek instrukcji lub zmodyfikować interfejs, aby model stał się bardziej zadaniowy i mniej empatyczny.
Dla OpenAI może to być nieco bardziej skomplikowane, ale można przypuszczać, że Altman będzie kontynuował poszukiwania idealnego balansu pomiędzy funkcjami, które mają uczynić ChatGPT bardziej atrakcyjnym dla użytkowników.
