Character.AI wycofuje otwarte czaty dla nieletnich, stawiając na kreatywność
W obliczu rosnącej presji regulacyjnej i publicznej krytyki, platforma Character.AI, znana z chatbotów opartych na sztucznej inteligencji, ogłosiła radykalną zmianę w swojej strategii dotyczącej nieletnich użytkowników. Firma, która w przeszłości zmagała się z oskarżeniami o negatywny wpływ na zdrowie psychiczne młodych ludzi, w tym doniesieniami o przypadkach samobójstw związanych z długotrwałymi interakcjami z AI, planuje wycofać możliwość prowadzenia otwartych rozmów dla osób poniżej 18 roku życia.
Zmiana kierunku: od towarzysza AI do narzędzia twórczego
Karandeep Anand, dyrektor generalny Character.AI, w rozmowie z TechCrunch potwierdził, że decyzja ta jest świadomym krokiem mającym na celu ochronę młodzieży. Zaznaczył, że otwarte rozmowy, w których chatbot pełni rolę interaktywnego partnera lub przyjaciela, są nie tylko ryzykowne dla dzieci, ale również niezgodne z długoterminową wizją firmy. Zamiast tego, Character.AI zamierza przekształcić się w platformę do odgrywania ról i rozwijania kreatywności. Zamiast czatowania z wirtualnym przyjacielem, młodzi użytkownicy będą zachęcani do tworzenia wspólnych historii lub generowania wizualizacji za pomocą AI.
Proces wycofywania dostępu do czatów ma nastąpić stopniowo do 25 listopada, począwszy od dwugodzinnego dziennego limitu, który będzie sukcesywnie zmniejszany. Weryfikacja wieku użytkowników będzie realizowana za pomocą wewnętrznych narzędzi analizujących zachowanie na platformie, a także rozwiązań firm trzecich, takich jak Persona. W przypadkach wątpliwych przewidziano również weryfikację tożsamości za pomocą rozpoznawania twarzy lub dokumentów.
Konsekwentne kroki i przewidywany spadek liczby użytkowników
Decyzja ta jest kontynuacją wcześniejszych działań Character.AI mających na celu ochronę nieletnich, w tym wprowadzenia narzędzi do wglądu rodzicielskiego, filtrowania postaci, ograniczania rozmów o charakterze romantycznym oraz powiadomień o czasie spędzonym na platformie. Anand nie ukrywa, że wcześniejsze zmiany już spowodowały odpływ części użytkowników poniżej 18 roku życia, i przewiduje, że obecne modyfikacje spotkają się z podobną reakcją.
Firma ma nadzieję, że młodzi użytkownicy przeniosą się do nowych funkcji platformy, skupionych na rozrywce i twórczości. W ostatnich miesiącach Character.AI wprowadziło AvatarFX – narzędzie do tworzenia animowanych wideo z obrazów, Scenes – interaktywne scenariusze z predefiniowanymi postaciami, oraz Streams – funkcję umożliwiającą dynamiczne interakcje między dwoma postaciami. W sierpniu uruchomiono również Community Feed, kanał społecznościowy do dzielenia się stworzonymi treściami.
Przeprosiny i nadzieje na standardy branżowe
W oświadczeniu skierowanym do użytkowników poniżej 18 roku życia, Character.AI wyraziło ubolewanie z powodu wprowadzanych zmian, jednocześnie podkreślając ich konieczność w kontekście bezpieczeństwa i odpowiedzialnego rozwoju technologii. Anand wyraził nadzieję, że platforma nie zostanie całkowicie zamknięta dla nieletnich, a jedynie zmienia się jej charakter, promując doświadczenia związane z grami AI, krótkimi filmami i opowiadaniem historii.
Dyrektor generalny przyznał, że część nastolatków może przenieść się na inne platformy AI, takie jak OpenAI, które nadal oferują otwarte rozmowy z chatbotami. Podkreślił jednak, że Character.AI chce wyznaczyć nowy standard w branży, sugerując, że otwarte czaty dla nieletnich nie są właściwą drogą. Motywacją Ananda jest również osobista troska o bezpieczeństwo jego sześcioletniej córki w świecie AI.
Niewymuszone kroki regulacyjne
Działania Character.AI wyprzedzają potencjalne regulacje. We wtorek senatorowie Josh Hawley i Richard Blumenthal zapowiedzieli przedstawienie ustawy zakazującej towarzyszy AI dla nieletnich, po skargach rodziców na seksualne konwersacje, samookaleczenia i przypadki samobójstw. Wcześniej, Kalifornia stała się pierwszym stanem, który uregulował chatboty-towarzyszy, pociągając firmy do odpowiedzialności za niespełnianie standardów bezpieczeństwa.
Dodatkowo, Character.AI zapowiedziało utworzenie niezależnej organizacji non-profit, AI Safety Lab, dedykowanej innowacjom w zakresie bezpieczeństwa rozrywkowych funkcji AI. Firma podkreśla, że choć wiele pracy poświęca się kodowaniu i rozwojowi AI w innych przypadkach użycia, brakuje wysiłków w zakresie bezpieczeństwa agentów AI napędzających rozrywkę, co ma kluczowe znaczenie dla przyszłości tej technologii.
