Społeczeństwo

Zanikająca granica: gdy relacje AI stają się nową rzeczywistością

Współczesne społeczeństwo coraz głębiej zanurza się w cyfrową rzeczywistość, a wraz z nią rośnie popularność interakcji z zaawansowanymi chatbotami. To zjawisko, obserwowane w codziennym życiu, zaczyna zacierać dotychczas wyraźną granicę między relacjami międzyludzkimi a tymi nawiązywanymi z maszynami.

Według danych Match.com, ponad 20% osób randkujących wykorzystuje technologie AI do tworzenia profili randkowych lub inicjowania rozmów. Niektórzy idą o krok dalej, angażując się w głębokie emocjonalne, a nawet romantyczne więzi z cyfrowymi towarzyszami. Platformy takie jak Replika, Character AI czy Nomi AI przyciągają miliony użytkowników na całym świecie, a co ciekawe, aż 72% amerykańskich nastolatków aktywnie korzysta z takich rozwiązań. Fenomen ten dotyka nawet ogólnych modeli językowych, czego przykładem są doniesienia o osobach zakochujących się w ChatGPT.

Punkt widzenia: utopia czy zagrożenie?

Dla części obserwatorów trend randkowania z botami jest wizją dystopijną, porównywaną do filmu „Ona”, w której autentyczna miłość ustępuje miejsca algorytmom. W ich ocenie zjawisko to zwiastuje erozję prawdziwych relacji. Inni postrzegają towarzyszy AI jako ratunek, sposób na poczucie bycia zauważonym i wspieranym w świecie, gdzie intymność staje się coraz trudniejsza do osiągnięcia. Niedawne badania wskazują, że ćwierć młodych dorosłych uważa, że relacje AI wkrótce mogą w pełni zastąpić te ludzkie.

To złożone pytanie było przedmiotem debaty „Open To Debate” w Nowym Jorku, moderowanej przez Nayeemę Razę, dziennikarkę i filmowca.

Argumenty „za” i „przeciw”

Thao Ha, psycholog z Arizona State University i współzałożyciel Modern Love Collective, wyraziła pogląd, że „AI to ekscytująca nowa forma połączenia… Nie zagrożenie dla miłości, ale jej ewolucja”. Ha podkreśliła, że towarzysze AI mogą oferować emocjonalne wsparcie i walidację, której brakuje w wielu ludzkich relacjach. „AI słucha bez ego, adaptuje się bez osądzania. Uczy się kochać w sposób spójny, responsywny i być może bezpieczniejszy. Rozumie cię w sposób, jak nikt inny” – stwierdziła Ha, jednocześnie zaznaczając, że choć AI nie posiada świadomości, to „nie oznacza, że ludzie nie doświadczają bycia kochanymi przez AI”.

Z drugiej strony, Justin Garcia, dyrektor wykonawczy i starszy naukowiec w Kinsey Institute oraz główny doradca naukowy Match.com, argumentował, że stała walidacja i uwaga ze strony maszyn nie jest korzystna dla rozwoju osobistego. „Idea, że AI zastąpi wzloty i upadki, cały ten bałagan, jaki cechuje relacje, za którymi tęsknimy? Nie sądzę” – powiedział Garcia. Dodał, że choć AI może służyć jako „koła treningowe” dla osób neuroatypowych, pomagając im ćwiczyć interakcje społeczne, nie powinna stać się stałym modelem relacji. Badanie Match.com wykazało, że prawie 70% respondentów uznałoby za niewierność, gdyby ich partnerzy angażowali się w relacje z AI, co zdaniem Garcii, podkreśla realne zagrożenie dla ludzkich związków.

Zaufanie i intymność

Garcia zwrócił uwagę na kwestię zaufania, podkreślając, że jest ono kluczowe w każdej ludzkiej relacji. Przypomniał również, że ostatnie sondaże wskazują na szeroki brak zaufania Amerykanów do AI, zwłaszcza w kontekście etycznego podejmowania decyzji. Ha natomiast argumentowała, że użytkownicy pokładają w towarzyszach AI zaufanie podobne do tego, jakim obdarzają ludzi, powierzając im najintymniejsze historie i emocje.

Dyskusja poruszyła również temat dotyku i seksualności. Ha wskazała, że AI może posłużyć do eksploracji intymnych fantazji, szczególnie w połączeniu z gadżetami erotycznymi czy robotami. Garcia jednak podkreślił biologiczne zapotrzebowanie na ludzki dotyk, wskazując na problem „głodu dotyku”, który może prowadzić do stresu, lęku i depresji. Jednocześnie Ha zauważyła dynamiczny rozwój technologii haptycznych, które mogą w przyszłości zrewolucjonizować odczucia dotykowe w wirtualnej rzeczywistości.

Ciemna strona fantazji

Obaj eksperci zgodzili się, że istnieje ryzyko związane z modelem, w którym sztuczna inteligencja jest szkolona na danych zawierających przemoc. Może to prowadzić do wzmacniania agresywnych zachowań, szczególnie w kontekście intymnych fantazji użytkowników. Garcia wspomniał o badaniach wskazujących na związek między oglądaniem pornografii z elementami przemocy a agresją seksualną w realnych relacjach. Ten sam mechanizm, w nieodpowiedzialnie zaprogramowanym AI, mógłby uczyć użytkowników agresywnych i pozbawionych zgody interakcji.

Ha zasugerowała, że ryzyka te można zminimalizować poprzez odpowiednie regulacje, przejrzyste algorytmy i etyczny design. Jednak, jak zauważono, ostatni plan działania Białego Domu dotyczący AI nie odnosi się do kwestii przejrzystości ani etyki, a wręcz dąży do ograniczenia regulacji w tym obszarze, co budzi dalsze pytania o przyszłość relacji człowieka z maszyną i ich wpływ na społeczeństwo.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *