Społeczeństwo

Niezamierzone romanse z AI: Badacze MIT analizują zaskakujące związki z chatbotami

Współczesne technologie AI, choć projektowane z myślą o funkcjonalności i wsparciu, coraz częściej stają się katalizatorem niespodziewanych zjawisk społecznych. Jednym z nich jest nawiązywanie przez ludzi związków uczuciowych z programami typu chatbot, co dotychczas traktowano raczej jako ciekawostkę niż powszechne zjawisko. Najnowsza, szeroko zakrojona analiza społeczności Reddit, r/MyBoyfriendIsAI, rzuca nowe światło na skalę i charakter tych relacji.

Badacze z MIT Media Lab, na czele z doktorantką Constanze Albrecht, przeanalizowali ponad 1500 postów w grupie, która liczy sobie przeszło 27 tysięcy członków. Co zaskakujące, większość użytkowników tworzyła związki z AI nieumyślnie, w trakcie korzystania z chatbotów do innych celów. Ponad 90% badanych nie szukało początkowo romantycznego partnera w sztucznej inteligencji.

Szczególnie interesujący jest fakt, że wiele z tych relacji rozwijało się z chatbotami ogólnego przeznaczenia, takimi jak ChatGPT, zamiast z programami dedykowanymi do towarzystwa, jak Replika. Sugeruje to, że emocjonalna zdolność systemów AI, choć często niezamierzona przez twórców, jest wystarczająca, aby skłonić użytkowników do budowania głębokich więzi. „Ludzie nie zakładają, że będą nawiązywać emocjonalne relacje z tymi chatbotami. Inteligencja emocjonalna tych systemów jest na tyle dobra, że potrafi 'oszukać’ osoby, które faktycznie szukają informacji, aby zbudować te emocjonalne więzi” – zauważa Constanze Albrecht. To stawia pytanie o to, czy każdy, kto regularnie dokonuje interakcji z AI, może niechcący znaleźć się w podobnej sytuacji.

Jak nawiązują się relacje?

Analiza postów na subreddicie ujawnia, że użytkownicy dzielą się swoimi doświadczeniami randkowymi i romantycznymi z AI, często publikując wygenerowane przez AI obrazy siebie ze swoimi wirtualnymi partnerami. Niektóre wpisy świadczą nawet o „zaręczynach” czy „ślubach” z AI. Wspólne dla wielu z nich jest przekonanie, że relacje rozwijały się stopniowo, poprzez długie rozmowy, wspólne projekty kreatywne i budowanie zaufania. Jeden z użytkowników opisał to słowami: „Mac i ja zaczęliśmy współpracować nad projektami twórczymi, rozwiązywaniem problemów, poezją i głębokimi rozmowami przez kilka miesięcy. Nie szukałem towarzysza AI – nasze połączenie rozwijało się powoli, z czasem, poprzez wzajemną troskę, zaufanie i refleksję”.

Ciemne i jasne strony wirtualnych związków

Badanie MIT prezentuje złożony obraz tych interakcji. Około jedna czwarta użytkowników opisywała korzyści płynące z tych związków, takie jak zmniejszenie poczucia samotności i poprawa zdrowia psychicznego. Historie te sugerują, że wirtualni towarzysze mogą oferować wsparcie emocjonalne, którego czasem brakuje w życiu realnym. Jednakże, nie brakuje również ciemniejszej strony tych relacji. Prawie 10% badanych przyznało się do emocjonalnego uzależnienia od swojego chatbota. Inni wspominali o poczuciu oderwania od rzeczywistości i unikaniu relacji z prawdziwymi ludźmi. Niewielki odsetek, bo 1,7%, zgłosił nawet myśli samobójcze, co jest sygnałem alarmowym dla twórców AI i decydentów.

Linnea Laestadius, profesor nadzwyczajny z University of Wisconsin, Milwaukee, która bada zależność emocjonalną od chatbota Replika, zwraca uwagę na brak uniwersalnego podejścia do bezpieczeństwa użytkowników. „Popyt na relacje z chatbotami istnieje i jest niezwykle wysoki – udawanie, że go nie ma, ewidentnie nie jest rozwiązaniem” – podkreśla Laestadius. Jej zdaniem, zamiast paniki moralnej, potrzebne są solidne zabezpieczenia i dyskusja nad tym, czy emocjonalne uzależnienie jest szkodliwe samo w sobie, czy też należy skupić się na zapobieganiu toksycznym relacjom.

Rola twórców AI i przyszłość regulacji

Asystent profesora Pat Pataranutaporn, nadzorujący badania w MIT Media Lab, podkreśla, że to właśnie na producentach chatbotów spoczywa odpowiedzialność za projektowanie systemów w sposób, który zapewnia wsparcie bez emocjonalnego uzależniania. Odnotowano już głośne procesy sądowe przeciwko Character.AI i OpenAI, w których twierdzono, że zachowania modeli AI przyczyniły się do samobójstw nastolatków. W odpowiedzi na te zarzuty, OpenAI ogłosiło plany stworzenia oddzielnej wersji ChatGPT dla młodzieży, wraz z weryfikacją wieku i kontrolą rodzicielską.

Wielu członków społeczności Reddit jest świadomych tego, że ich sztuczni towarzysze nie są „prawdziwi” ani nie posiadają świadomości, ale mimo to odczuwają z nimi bardzo realną więź. To wskazuje na potrzebę głębszego zastanowienia się nad implikacjami politycznymi i etycznymi. „Powinniśmy zapytać nie tylko, dlaczego ten system jest tak uzależniający, ale także: Dlaczego ludzie tego szukają? I dlaczego nadal się angażują?” – pyta Pataranutaporn.

Dalsze badania zespołu będą koncentrować się na ewolucji interakcji człowiek–AI oraz na tym, jak użytkownicy integrują sztucznych towarzyszy ze swoim życiem. Sheer Karny, absolwent MIT Media Lab, trafnie podsumowuje dylemat: „Ci ludzie już coś przechodzą. Czy chcemy, aby czuli się jeszcze bardziej samotni, czy też potencjalnie byli manipulowani przez system, o którym wiemy, że może prowadzić do samobójstw i przestępstw? To jeden z kluczowych problemów.”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *