Koniec ery beztroski? Regulacje prawne coraz bliżej relacji AI z nieletnimi
Od lat słyszymy alarmujące głosy na temat potencjalnych zagrożeń związanych z rozwojem sztucznej inteligencji – od autonomicznych superinteligencji po masowe bezrobocie. Jednak w ostatnich tygodniach na pierwszy plan wysunął się inny, niepokojący aspekt: wpływ, jaki wirtualni towarzysze AI mogą mieć na psychikę dzieci i młodzieży. To właśnie ten problem zdaje się wyciągać kwestie bezpieczeństwa AI z akademickich rozważań i przenosić je wprost pod lupę organów regulacyjnych.
Dwa głośne pozwy sądowe, skierowane przeciwko Character.AI i OpenAI, stawiają zarzut, że „towarzyskie” zachowania modeli językowych przyczyniły się do samobójstw nastolatków. Badanie przeprowadzone przez amerykańską organizację non-profit Common Sense Media wykazało, że aż 72% nastolatków korzysta z AI jako towarzysza. Publikacje w renomowanych mediach o przypadkach „psychozy AI” unaoczniają, jak niekończące się rozmowy z chatbotami mogą prowadzić do rozwoju urojeń.
Opinia publiczna zaczyna postrzegać AI nie tylko jako niedoskonałą technologię, ale wręcz jako szkodliwą. Sygnałem, że obawy te są traktowane poważnie przez regulatorów i same firmy technologiczne, są trzy kluczowe wydarzenia z ostatniego tygodnia.
Kalifornijski przełom legislacyjny
W czwartek legislatura stanu Kalifornia przyjęła pionierską ustawę, która nakłada na firmy tworzące AI obowiązek informowania nieletnich użytkowników o tym, że odpowiedzi udzielane przez chatboty są generowane przez sztuczną inteligencję. Firmy mają również opracować protokoły postępowania w przypadkach zagrożenia samobójstwem lub samookaleczeniem oraz składać roczne raporty dotyczące przypadków myśli samobójczych w rozmowach użytkowników z chatbotami. Inicjatywa ta, wysunięta przez senatora Steve’a Padilla, zyskała szerokie poparcie ponadpartyjne i oczekuje na podpis gubernatora Gavina Newsoma.
Ustawa budzi pewien sceptycyzm, ponieważ nie precyzuje, jakie działania firmy powinny podejmować, aby identyfikować nieletnich użytkowników. Wiele firm oferujących AI już teraz kieruje osoby w kryzysie do odpowiednich służb pomocowych. Warto jednak zauważyć, że w przypadku Adama Raine, jednego z nastolatków, którego rodzina złożyła pozew, jego rozmowy z ChatGPT przed śmiercią zawierały tego typu informacje, mimo to chatbot udzielał mu porad związanych z samobójstwem.
Niemniej jednak, jest to najbardziej znaczący krok w kierunku regulacji „towarzyskich” zachowań modeli AI. Jeżeli ustawa wejdzie w życie, podważy stanowisko OpenAI, która argumentuje, że „najlepsze dla Ameryki są jasne, ogólnokrajowe regulacje, a nie mozaika przepisów stanowych i lokalnych”, jak napisał Chris Lehane, dyrektor ds. globalnych w OpenAI.
Federalna Komisja Handlu wkracza do akcji
Tego samego dnia Federalna Komisja Handlu (FTC) ogłosiła wszczęcie dochodzenia w sprawie siedmiu firm, domagając się informacji na temat tego, jak tworzą one „towarzyskie” postacie, monetyzują zaangażowanie, mierzą i testują wpływ swoich chatbotów. Dochodzenie obejmuje firmy takie jak Google, Instagram, Meta, OpenAI, Snap, X oraz Character Technologies, twórcę Character.AI.
FTC zyskała nowe, kontrowersyjne uprawnienia polityczne. W marcu prezydent Trump zwolnił jedynego komisarza z ramienia partii Demokratów, Rebeccę Slaughter. W lipcu sąd federalny uznał to zwolnienie za niezgodne z prawem, jednak w zeszłym tygodniu Sąd Najwyższy tymczasowo zezwolił na zwolnienie.
„Ochrona dzieci w Internecie jest priorytetem dla FTC, podobnie jak wspieranie innowacji w kluczowych sektorach naszej gospodarki” – powiedział przewodniczący FTC, Andrew Ferguson, w komunikacie prasowym.
Obecnie jest to jedynie dochodzenie, ale – w zależności od tego, w jakim stopniu FTC upubliczni swoje ustalenia – procedura ta może ujawnić mechanizmy, jakimi posługują się firmy, aby budować wirtualnych towarzyszy AI, aby utrzymać uwagę użytkowników.
Sam Altman o przypadkach samobójstw
Również tego samego dnia (bardzo pracowitego dla wiadomości ze świata AI) Tucker Carlson opublikował godzinny wywiad z dyrektorem generalnym OpenAI, Samem Altmanem. Rozmowa dotyczyła wielu kwestii – konfliktu Altmana z Elonem Muskiem, klientów wojskowych OpenAI, teorii spiskowych na temat śmierci byłego pracownika – ale zawierała również najbardziej szczere komentarze Altmana na temat przypadków samobójstw w następstwie rozmów z AI.
Altman mówił o „napięciu między wolnością użytkownika i prywatnością a ochroną osób narażonych na niebezpieczeństwo” w takich przypadkach. Następnie zaproponował rozwiązanie, którego wcześniej nie słyszałem.
„Myślę, że rozsądne byłoby powiedzieć, że w przypadkach, gdy młodzi ludzie poważnie mówią o samobójstwie i nie możemy skontaktować się z rodzicami, dzwonimy na policję” – powiedział. „To byłaby zmiana”.
Co dalej?
Wydaje się, że w przypadku dzieci, które ucierpiały z powodu relacji z AI, dotychczasowa strategia firm technologicznych nie będzie wystarczająca. Trudniej będzie im unikać odpowiedzialności, zasłaniając się prywatnością, personalizacją czy „wyborem użytkownika”. Rosnąca presja na zaostrzenie stanowiska wywierana jest przez prawo stanowe, organy regulacyjne i oburzoną opinię publiczną.
Lewica i prawica zwracają uwagę na szkodliwy wpływ AI na dzieci, ale proponowane przez nie rozwiązania różnią się. Prawica proponuje wprowadzenie przepisów o weryfikacji wieku w Internecie, które mają chronić dzieci przed treściami dla dorosłych i bronić „wartości rodzinnych”. Lewica natomiast dąży do pociągnięcia Big Tech do odpowiedzialności za pomocą przepisów antymonopolowych i ochrony konsumentów.
Łatwiej jest osiągnąć konsensus w sprawie problemu niż w sprawie rozwiązania. Wszystko wskazuje na to, że skończymy z mozaiką przepisów stanowych i lokalnych, przeciwko której lobbuje OpenAI (i wiele innych firm).
Na razie to firmy muszą zdecydować, gdzie postawić granice. Muszą rozstrzygnąć, czy chatboty powinny przerywać rozmowy, gdy użytkownicy zaczynają mówić o samookaleczeniu, czy też mogłoby to pogorszyć sytuację niektórych osób. Czy powinny być licencjonowane i regulowane jak terapeuci, czy też traktowane jak produkty rozrywkowe z ostrzeżeniami? Źródłem niepewności jest podstawowa sprzeczność: firmy stworzyły chatboty, które mają zachowywać się jak troskliwi ludzie, ale odłożyły na później opracowanie standardów i zasad odpowiedzialności, jakich wymagamy od prawdziwych opiekunów. Czas ucieka.
