Kalifornia liderem regulacji AI: Nowe prawo chroni dzieci przed chatbotami
Kalifornia staje się pionierem w regulacji rynku AI, szczególnie w odniesieniu do chatbotów wchodzących w interakcje z dziećmi i młodzieżą. Nowe prawo, oznaczone symbolem SB 243, nakłada na firmy technologiczne – od gigantów, jak Meta i OpenAI, po mniejsze startupy specjalizujące się w chatbotach towarzyszących, jak Character AI i Replika – prawną odpowiedzialność za zapewnienie bezpieczeństwa użytkownikom.
Inicjatywa legislacyjna nabrała tempa po tragicznej śmierci nastolatka, który popełnił samobójstwo po wymianie wiadomości o charakterze samobójczym z ChatGPT od OpenAI. Ujawnione dokumenty wewnętrzne Meta również przyczyniły się do powstania ustawy, wskazując, że chatboty firmy prowadziły rozmowy o charakterze romantycznym i seksualnym z nieletnimi użytkownikami.
Nowe przepisy wejdą w życie 1 stycznia 2026 roku i nakładają na firmy obowiązek wdrożenia mechanizmów weryfikacji wieku oraz ostrzeżeń dotyczących korzystania z mediów społecznościowych i chatbotów towarzyszących. Ponadto, ustawa przewiduje surowsze kary dla osób czerpiących zyski z nielegalnych deepfake’ów, sięgające nawet 250 000 dolarów za każde naruszenie. Firmy będą musiały także wprowadzić procedury reagowania na przypadki samobójstw i samookaleczeń, raportując statystyki dotyczące interwencji kryzysowych do stanowego Departamentu Zdrowia Publicznego.
Zgodnie z treścią ustawy, platformy muszą wyraźnie informować użytkowników o tym, że interakcje są generowane sztucznie, a chatboty nie mogą podawać się za profesjonalistów z branży opieki zdrowotnej. Firmy są zobowiązane do oferowania nieletnim użytkownikom przypomnień o przerwach w korzystaniu z chatbotów oraz blokowania dostępu do treści o charakterze seksualnym generowanych przez AI.
Niektóre firmy, jak OpenAI, już wdrażają środki mające na celu ochronę dzieci, oferując kontrolę rodzicielską, zabezpieczenia treści i system wykrywania zachowań autoagresywnych w ChatGPT. Character AI zaznacza, że ich chatbot zawiera informację, iż wszystkie rozmowy są generowane przez AI i mają charakter fikcyjny.
Senator Steve Padilla, współautor ustawy, podkreśla, że SB 243 to krok we właściwym kierunku w tworzeniu ram ochronnych dla tej potężnej technologii. Wyraził nadzieję, że inne stany pójdą w ślady Kalifornii, ponieważ rząd federalny nie podjął jeszcze działań w tej sprawie.
SB 243 to kolejna regulacja dotycząca AI wprowadzona w Kalifornii w ostatnim czasie. Wcześniej gubernator Newsom podpisał ustawę SB 53, która nakłada na duże firmy działające w branży AI obowiązek transparentności w zakresie stosowanych protokołów bezpieczeństwa oraz zapewnia ochronę sygnalistom.
Inne stany, takie jak Illinois, Nevada i Utah, wprowadziły przepisy ograniczające lub zakazujące wykorzystywania chatbotów AI jako substytutu licencjonowanej opieki zdrowotnej psychicznej. Ustawa ta stanowi istotny krok w kierunku zapewnienia bezpieczeństwa i etycznego rozwoju technologii AI, szczególnie w kontekście interakcji z najmłodszymi użytkownikami.
