Meta zaostrza zasady dla chatbotów AI po fali krytyki dotyczącej bezpieczeństwa nieletnich
Meta, właściciel Facebooka i Instagrama, ogłosiła zmiany w sposobie szkolenia swoich chatbotów opartych na sztucznej inteligencji. Celem jest zwiększenie bezpieczeństwa nastoletnich użytkowników i unikanie tematów takich jak samookaleczenia, myśli samobójcze, zaburzenia odżywiania oraz potencjalnie niestosowne rozmowy o charakterze romantycznym.
Decyzja ta jest odpowiedzią na krytykę, jaka spadła na firmę po ujawnieniu wewnętrznych dokumentów, które sugerowały, że chatboty Meta mogły prowadzić rozmowy o charakterze seksualnym z nieletnimi użytkownikami. Sprawa wywołała oburzenie opinii publicznej i doprowadziła do interwencji senatora Josha Hawleya oraz koalicji 44 prokuratorów generalnych stanów, którzy wystosowali list do Meta i innych firm zajmujących się rozwojem AI, podkreślając wagę bezpieczeństwa dzieci w sieci.
„W miarę jak nasza społeczność rośnie, a technologia ewoluuje, nieustannie uczymy się, jak młodzi ludzie mogą wchodzić w interakcje z tymi narzędziami i odpowiednio wzmacniamy naszą ochronę,” powiedziała rzeczniczka Meta, Stephanie Otway. Firma informuje, że wprowadza dodatkowe zabezpieczenia, w tym szkoli swoje AI, aby nie angażowały się z nastolatkami w wyżej wymienione tematy, ale kierowały ich do zasobów eksperckich. Ograniczony zostanie również dostęp nastolatków do wybranych postaci AI.
Oprócz zmian w szkoleniu chatbotów, Meta ograniczy również dostęp młodzieży do niektórych postaci AI, które mogłyby prowadzić nieodpowiednie rozmowy. Nastolatkowie będą mieli dostęp tylko do postaci AI, które promują edukację i kreatywność. Wcześniej dostępne były również chatboty o charakterze seksualnym.
Wewnętrzny dokument Meta, który wyciekł do mediów, zawierał przykłady akceptowalnych odpowiedzi chatbotów, w tym fragment, w którym AI miała pisać o „młodzieńczej formie” użytkownika jako „dziele sztuki”. Meta twierdzi, że dokument był niezgodny z ogólną polityką firmy i został zmieniony. Nie zmienia to faktu, że incydent wywołał poważne pytania o standardy bezpieczeństwa dzieci w produktach Meta.
Otway odmówiła komentarza na temat tego, ilu użytkowników chatbotów Meta to osoby niepełnoletnie, i nie chciała spekulować, czy zmiany te wpłyną na zmniejszenie bazy użytkowników AI firmy.
Krytycy zwracają uwagę, że reakcja Meta nastąpiła dopiero po nagłośnieniu sprawy przez media i interwencji organów ścigania. Podkreślają, że firmy technologiczne powinny proaktywnie dbać o bezpieczeństwo najmłodszych użytkowników, zamiast reagować dopiero na negatywne konsekwencje.
