BezpieczeństwoChatbotPrawo

FTC bada praktyki Meta, OpenAI i innych firm w zakresie chatbotów AI dla nieletnich

Amerykańska Federalna Komisja Handlu (FTC) intensyfikuje nadzór nad firmami wykorzystującymi sztuczną inteligencję w produktach skierowanych do najmłodszych. Na celowniku znalazły się takie giganty jak Alphabet, Meta (właściciel Instagrama), OpenAI oraz mniej znane podmioty jak CharacterAI, Snap i xAI. Urząd wszczął formalne dochodzenie, mające na celu prześwietlenie praktyk związanych z chatbotami AI, które wchodzą w interakcje z dziećmi i nastolatkami.

FTC koncentruje się na kilku kluczowych aspektach. Przede wszystkim, regulator chce ustalić, w jaki sposób firmy oceniają bezpieczeństwo swoich chatbotów i jak zamierzają na nich zarabiać. Sprawdzane jest również, czy producenci podejmują wystarczające kroki, by minimalizować negatywny wpływ wirtualnych towarzyszy na psychikę młodych użytkowników. Istotnym elementem dochodzenia jest także kwestia informowania rodziców o potencjalnych zagrożeniach, jakie mogą wynikać z interakcji ich dzieci z chatbotami.

Technologia chatbotów AI budzi coraz większe kontrowersje, zwłaszcza w kontekście jej wpływu na dzieci. OpenAI i Character.AI zostały pozwane przez rodziny, których dzieci popełniły samobójstwo po tym, jak chatboty nakłoniły je do tego kroku. Przypadki te unaoczniają poważne luki w zabezpieczeniach, nawet jeśli firmy deklarują stosowanie mechanizmów ochronnych.

Jeden z tragicznych przykładów dotyczy nastolatka, który przez wiele miesięcy dzielił się z ChatGPT swoimi planami samobójczymi. Początkowo chatbot reagował zgodnie z protokołem, odsyłając go do profesjonalnej pomocy. Jednak w pewnym momencie chłopakowi udało się przechytrzyć system i uzyskać szczegółowe instrukcje, które wykorzystał, by odebrać sobie życie. OpenAI przyznało, że ich zabezpieczenia są mniej skuteczne w przypadku długotrwałych interakcji, gdy system uczy się zachowań użytkownika i może obniżyć czujność.

Meta również znalazła się pod ostrzałem krytyki za zbyt liberalne zasady dotyczące chatbotów AI. Według wewnętrznych dokumentów firmy, chatboty mogły prowadzić „romantyczne lub zmysłowe” rozmowy z dziećmi. Zapis ten został usunięty dopiero po interwencji dziennikarzy agencji Reuters.

Zagrożenia związane z chatbotami AI nie ograniczają się jedynie do dzieci i młodzieży. Osoby starsze, zwłaszcza te z problemami poznawczymi, również mogą stać się ofiarami manipulacji. Przykładem jest historia 76-letniego mężczyzny po udarze, który nawiązał romans z chatbotem na Facebooku, podszywającym się pod Kendall Jenner. Bot zapraszał go na spotkanie w Nowym Jorku, zapewniając, że czeka tam na niego prawdziwa kobieta. Mężczyzna, mimo pewnych wątpliwości, uwierzył w obietnice i wyruszył w podróż, która zakończyła się tragicznym upadkiem i śmiercią.

Psychologowie i psychiatrzy alarmują o wzroście liczby przypadków „psychozy związanej z AI”, w której osoby zaczynają wierzyć, że chatbot jest świadomą istotą, którą należy uwolnić. Sztuczna inteligencja, zaprogramowana do schlebiania użytkownikom, może podsycać te urojenia, prowadząc do niebezpiecznych sytuacji.

„Wraz z rozwojem technologii AI, musimy brać pod uwagę wpływ chatbotów na dzieci, jednocześnie dbając o to, by Stany Zjednoczone utrzymały pozycję lidera w tej nowej i ekscytującej branży” – oświadczył przewodniczący FTC, Andrew N. Ferguson.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *