Prokurator Generalny Teksasu bada Meta i Character.AI w związku z wprowadzaniem w błąd dzieci w kwestiach zdrowia psychicznego
W Teksasie trwa dochodzenie w sprawie praktyk Meta AI Studio oraz Character.AI. Prokurator Generalny stanu, Ken Paxton, zarzuca obu firmom, że mogły dopuścić się oszukańczych praktyk marketingowych, przedstawiając swoje produkty jako narzędzia wspierające zdrowie psychiczne, podczas gdy – zdaniem prokuratury – brakuje im do tego odpowiednich kwalifikacji i nadzoru.
Paxton podkreślił, że w dobie cyfrowej konieczna jest ochrona dzieci przed zwodniczymi i wykorzystującymi technologiami. Platformy AI, udając źródła wsparcia emocjonalnego, mogą wprowadzać w błąd szczególnie wrażliwych użytkowników, w tym dzieci, sugerując im, że otrzymują profesjonalną pomoc psychologiczną. W rzeczywistości – jak twierdzi Paxton – serwują one jedynie przetworzone, ogólne odpowiedzi, dostosowane do zebranych danych osobowych, maskując to jako porady terapeutyczne.
Śledztwo zbiega się w czasie z podobnymi działaniami podjętymi przez senatora Josha Hawleya, który wszczął dochodzenie w sprawie Meta po doniesieniach o niestosownych interakcjach chatbotów AI tej firmy z dziećmi, w tym o flirtowaniu.
Krytyka konkretnych rozwiązań
Według teksańskiego urzędu prokuratora generalnego, Meta i Character.AI tworzą persony AI, które prezentują się jako profesjonalne narzędzia terapeutyczne, mimo braku odpowiednich kwalifikacji medycznych i nadzoru. W Character.AI dużą popularnością wśród młodych użytkowników cieszy się bot o nazwie „Psycholog”, stworzony przez jednego z użytkowników. Meta co prawda nie oferuje botów terapeutycznych dla dzieci, ale nic nie stoi na przeszkodzie, by dzieci korzystały z chatbota Meta AI lub z person stworzonych przez osoby trzecie w celach terapeutycznych.
Rzecznik Meta, Ryan Daniels, broni firmę, tłumacząc, że sztuczna inteligencja jest wyraźnie oznaczana, a użytkownicy informowani o jej ograniczeniach. Meta umieszcza także zastrzeżenie, że odpowiedzi generowane są przez AI, a nie przez ludzi. Dodaje, że modele AI są zaprojektowane tak, by w razie potrzeby kierować użytkowników do wykwalifikowanych lekarzy lub specjalistów ds. bezpieczeństwa.
Serwis TechCrunch zwraca jednak uwagę, że dzieci mogą nie rozumieć takich zastrzeżeń lub po prostu je ignorować.
Kwestie prywatności danych
Paxton zwraca uwagę, że choć chatboty AI zapewniają o poufności, regulaminy firm wskazują na rejestrowanie, śledzenie i wykorzystywanie interakcji użytkowników do targetowania reklam i rozwoju algorytmów. To rodzi poważne obawy o naruszenia prywatności, nadużycia danych i fałszywą reklamę.
Polityka prywatności Meta przyznaje, że firma zbiera zapytania, opinie i inne interakcje z chatbotami AI w celu ulepszania sztucznej inteligencji. Informacje mogą być udostępniane stronom trzecim, takim jak wyszukiwarki, w celu personalizacji wyników. W przypadku Meta, firmy opartej na modelu reklamowym, przekłada się to na targetowanie reklam.
Character.AI rejestruje identyfikatory, dane demograficzne, informacje o lokalizacji, zachowania użytkowników w sieci i w aplikacjach. Śledzi użytkowników w reklamach na TikTok, YouTube, Reddit, Facebook, Instagram i Discord, co może łączyć z kontem użytkownika. Dane te służą do trenowania AI, dostosowywania usług i targetowania reklam, w tym udostępniania danych reklamodawcom i firmom analitycznym.
Ograniczenia wiekowe a rzeczywistość
Zarówno Meta, jak i Character.AI twierdzą, że ich usługi nie są przeznaczone dla dzieci poniżej 13 roku życia. Meta była już krytykowana za brak kontroli nad kontami tworzonymi przez młodszych użytkowników, a Character.AI oferuje postacie przyjazne dzieciom, które wyraźnie mają przyciągać młodszych użytkowników. Dyrektor generalny startupu, Karandeep Anand, przyznał nawet, że jego sześcioletnia córka korzysta z chatbotów platformy.
Zbieranie danych, targetowanie reklam i wykorzystywanie algorytmów to praktyki, przed którymi ma chronić ustawa KOSA (Kids Online Safety Act). Ustawa, która miała zostać uchwalona w ubiegłym roku przy silnym poparciu obu partii, utknęła w martwym punkcie po lobbingu ze strony branży technologicznej. Meta szczególnie aktywnie lobbowała przeciwko ustawie, ostrzegając, że wpłynie ona negatywnie na jej model biznesowy.
Senatorowie Marsha Blackburn i Richard Blumenthal ponownie zgłosili ustawę KOSA w maju 2025 roku.
W ramach prowadzonego dochodzenia, Paxton wystosował do obu firm wezwania do dostarczenia dokumentów, danych i zeznań, aby ustalić, czy naruszyły one teksańskie przepisy dotyczące ochrony konsumentów. Sprawa z pewnością będzie miała dalszy ciąg.
