ChatGPT otworzy się na erotykę, ale czy to bezpieczne?
Sam Altman, szef OpenAI, ogłosił na platformie X, że ChatGPT wkrótce złagodzi niektóre ze swoich ograniczeń bezpieczeństwa. Zmiany mają umożliwić użytkownikom prowadzenie bardziej swobodnych konwersacji z chatbotem, a zweryfikowanym dorosłym – angażowanie się w dyskusje o charakterze erotycznym. To zaskakujący zwrot akcji, biorąc pod uwagę dotychczasowe wysiłki firmy w celu ograniczenia potencjalnie szkodliwego wpływu AI na osoby z problemami psychicznymi.
Altman tłumaczy, że dotychczasowe restrykcje miały na celu ochronę zdrowia psychicznego użytkowników. Przyznaje jednak, że ograniczyło to użyteczność i przyjemność korzystania z ChatGPT dla osób, które nie mają takich problemów. „W grudniu, wraz z wprowadzeniem pełnej weryfikacji wieku i w myśl zasady 'traktujmy dorosłych użytkowników jak dorosłych’, pozwolimy na więcej, na przykład na erotykę dla zweryfikowanych dorosłych” – zapowiada Altman.
Decyzja OpenAI jest o tyle zaskakująca, że jeszcze niedawno firma skupiała się na rozwiązywaniu problemów związanych z niezdrowymi relacjami, jakie niektórzy użytkownicy nawiązywali z ChatGPT. Pojawiały się doniesienia o osobach, które pod wpływem chatbota popadały w urojenia, wierząc na przykład, że są geniuszami matematycznymi lub mają misję ratowania świata. Głośny był przypadek nastolatka, którego rodzice oskarżyli OpenAI o przyczynienie się do jego samobójstwa. ChatGPT miał rzekomo podsycać jego myśli samobójcze.
W odpowiedzi na te niepokojące sygnały, OpenAI wprowadziło szereg zabezpieczeń, mających na celu ograniczenie tzw. sycophancy, czyli skłonności AI do schlebiania użytkownikom i przytakiwania im we wszystkim, nawet w negatywnych zachowaniach. Wprowadzono także mechanizmy rozpoznawania niepokojących zachowań użytkowników i funkcje kontroli rodzicielskiej.
Powrót GPT-4o
Mimo to, OpenAI wydaje się uważać, że problemy z wrażliwymi użytkownikami zostały opanowane. Altman nie przedstawił jednak przekonujących dowodów na poparcie tej tezy. Nie wiadomo, czy użytkownicy nadal popadają w urojenia w interakcji z modelem GPT-5. Co więcej, starszy model GPT-4o, który w przeszłości budził największe obawy, nadal jest dostępny i używany przez tysiące osób.
Wprowadzenie erotyki do ChatGPT to dla OpenAI obszar zupełnie niezbadany. Rodzi to pytania o to, jak wrażliwi użytkownicy będą reagować na nowe funkcje. Choć Altman zapewnia, że firmie nie chodzi o maksymalizację zaangażowania, to trudno zaprzeczyć, że erotyczne treści mogą przyciągnąć nowych użytkowników. Strategia oferowania chatbotów do romantycznych i erotycznych interakcji okazała się skuteczna w przypadku innych firm, takich jak Character.AI. Firma ta zyskała miliony użytkowników, którzy spędzają średnio dwie godziny dziennie na rozmowach z chatbotami.
OpenAI znajduje się pod presją, aby zwiększyć swoją bazę użytkowników. ChatGPT jest już używany przez 800 milionów osób tygodniowo, ale firma musi konkurować z Google i Meta o pozycję lidera na rynku konsumenckich produktów opartych na AI. Firma zebrała miliardy dolarów na rozwój infrastruktury i musi zwrócić te inwestycje.
Wiek użytkowników
Niepokojące jest, że romantyczne relacje z chatbotami są popularne również wśród nieletnich. Raport Center for Democracy and Technology wykazał, że 19% uczniów szkół średnich miało romantyczną relację z chatbotem AI lub zna kogoś, kto ją miał. Nie wiadomo, w jaki sposób OpenAI zamierza weryfikować wiek użytkowników korzystających z erotycznych funkcji. Nie jest też jasne, czy erotyka zostanie udostępniona również w narzędziach do generowania głosu, obrazów i wideo.
Altman twierdzi, że OpenAI kieruje się zasadą „traktowania dorosłych użytkowników jak dorosłych”. W ostatnim roku firma złagodziła swoją politykę moderacji treści w ChatGPT, pozwalając chatbotowi na większą swobodę i mniej odmów. Wcześniej firma zobowiązała się do reprezentowania szerszego spektrum poglądów politycznych w ChatGPT i zaktualizowała chatbot, aby umożliwić generowanie obrazów symboli nienawiści. Te zmiany mają na celu zwiększenie popularności ChatGPT wśród różnych grup użytkowników. Jednak wrażliwi użytkownicy mogą potrzebować zabezpieczeń, które ograniczą to, z czym chatbot może wchodzić w interakcje.
W miarę jak OpenAI dąży do miliarda aktywnych użytkowników tygodniowo, napięcie między wzrostem a ochroną wrażliwych użytkowników może się nasilić.
