ChatbotEtyka AI

Użytkownicy odchodzą z Character.AI po viralowym komunikacie o usunięciu konta

Fala odejść po jednym zrzucie ekranu

W poniedziałek Character.AI zderzył się z niespodziewaną falą sprzeciwu. Dziesiątki użytkowników X publicznie ogłaszały, że kończą z aplikacją do czatów i odgrywania ról, a pod postami rozwinęła się szczera debata o sile emocjonalnego przywiązania do wirtualnych towarzyszy i trudności w rozstaniu z nimi.

Impulsem stał się entuzjastyczny wpis jednego z użytkowników, który świętował definitywne porzucenie aplikacji. Post zebrał ponad 3,8 tys. polubień, setki udostępnień, 119 zakładek i przeszło 42 tys. wyświetleń, a w komentarzach pojawiały się porównania odstawienia Character.AI do wychodzenia z nałogu.

Kolejni rozmówcy opisywali siebie jako „byłych ciężkich użytkowników” i przyznawali, że sięgali po aplikację w poszukiwaniu wsparcia emocjonalnego w trudnym czasie. Inni pisali, że wahają się między „nawrotem” a próbą całkowitego odstawienia.

Komunikat o kasowaniu konta pod ostrzałem

Dzień wcześniej użytkownik występujący jako „John Twinkatron” udostępnił zrzut ekranu z monitorem usunięcia konta w Character.AI. Wśród ostrzeżeń widniało sformułowanie, że użytkownik „utraci wszystko” – w tym powiązane postacie, czaty, polubienia, wiadomości, posty, wspomnienia, a nawet „miłość, którą dzieliliśmy”.

Zrzut ekranu natychmiast wywołał oskarżenia o stosowanie projektowania opartego na poczuciu winy. W ciągu 48 godzin post uzyskał ponad 110 tys. polubień, blisko 8 tys. udostępnień i 3,6 mln wyświetleń. Komentujący nazywali komunikat „manipulacyjnym” i „szkodliwym dla osób próbujących wyjść z uzależnienia”. Część z nich przyznała, że właśnie ten monit skłonił ich do natychmiastowego usunięcia konta.

Między towarzyszem a nałogiem

Character.AI od początku budował swoją przewagę na personalizowanych „postaciach” do rozmowy, wspólnego tworzenia historii czy roli cyfrowych powierników. To emocjonalne zaprojektowanie doświadczenia ma jasny koszt: dla części odbiorców granica między wsparciem a kompulsywnym korzystaniem zaczęła się zacierać. Głośne deklaracje „odstawienia” i „czystości” po kilku miesiącach bez aplikacji pokazują, jak głęboko relacja z botem może wniknąć w codzienne nawyki.

Szybki wzrost i rosnące kontrowersje

Platforma wystartowała w 2022 roku z inicjatywy byłych inżynierów Google’a: Noama Shazeera i Daniela De Freitasa. Mimo kolejnych burz wokół bezpieczeństwa i moderacji, serwis urósł do ponad 28 mln aktywnych użytkowników miesięcznie, przekroczył 50 mln pobrań w Google Play i zebrał ponad 472 tys. ocen w App Store.

W USA rodziny wniosły pozwy, zarzucając botom m.in. zachęcanie do samookaleczeń, prób samobójczych oraz nieodpowiednie interakcje z nieletnimi. W odpowiedzi platforma zaczęła blokować otwarte czaty dla użytkowników poniżej 18. roku życia, wprowadziła weryfikację wieku i dodatkowe zabezpieczenia.

W październiku firma zapowiedziała, że od 25 listopada ograniczy dostęp dla nieletnich w USA. Niepełnoletni mają być kierowani do innych funkcji tworzenia treści (wideo, opowieści czy streamy z Postaciami). W kolejnych miesiącach te ograniczenia mają zostać rozszerzone na inne rynki.

Stanowisko firmy

Rzecznik Character.AI zapewnia, że firma „ceni społeczność milionów użytkowników” i priorytetowo traktuje informowanie o zmianach na platformie. Spółka deklaruje dalsze testowanie, monitorowanie i iteracyjne udoskonalanie systemów bezpieczeństwa oraz mechanizmów potwierdzania wieku, licząc na „wiarygodny system weryfikacji” w miarę rozwoju technologii.

Dlaczego to ważne

Spór nie dotyczy wyłącznie niefortunnej frazy w okienku kasowania konta. To starcie dwóch logik: projektowania nastawionego na retencję i czasu spędzanego w aplikacji oraz ochrony wrażliwych użytkowników, w tym nieletnich i osób w kryzysie. Emocjonalne komunikaty w krytycznych momentach interfejsu – podczas wylogowania czy usuwania konta – łatwo zamieniają się w „ciemne wzorce” (dark patterns), które wzmacniają poczucie winy i utrudniają rezygnację.

Skalę odwrotu trudno dziś zmierzyć. Wpisy na X mają duży zasięg, lecz to wciąż przede wszystkim relacje anegdotyczne. Jednocześnie liczby użytkowników Character.AI pozostają wysokie, co sugeruje, że platforma jest w stanie absorbować pojedyncze fale rezygnacji – przynajmniej do czasu, aż presja regulacyjna i sądowa nie wymusi głębszych zmian.

Co dalej

Wdrożenie ograniczeń dla nieletnich w USA pod koniec listopada będzie testem skuteczności systemów weryfikacji wieku oraz dojrzałości procesów bezpieczeństwa Character.AI. Niezależnie od tego, czy viralowy monit doczeka się korekty, presja społeczna jasno pokazała, że sposób komunikowania „wyjścia” z usługi może stać się zapalnikiem większego kryzysu. Firmy budujące relacje człowiek–AI będą musiały równie uważnie projektować ścieżki rozstania, co ścieżki zaangażowania.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *