BezpieczeństwoChatbot

Meta wprowadza kontrolę rodzicielską nad interakcjami nastolatków z AI

Meta, właściciel Facebooka i Instagrama, zapowiedziała wprowadzenie narzędzi kontroli rodzicielskiej dedykowanych interakcjom młodzieży z wirtualnymi postaciami AI. Nowe funkcje, które mają zadebiutować w przyszłym roku, obejmują możliwość blokowania dostępu do wybranych postaci oraz monitorowania tematów rozmów.

W nadchodzących miesiącach rodzice będą mogli całkowicie wyłączyć możliwość prowadzenia czatów z postaciami AI dla swoich nastoletnich dzieci. Co istotne, ta blokada nie obejmie dostępu do Meta AI – uniwersalnego chatbota firmy, który ma prowadzić wyłącznie rozmowy adekwatne do wieku użytkownika.

Oprócz tego, rodzice zyskają opcję selektywnego blokowania dostępu do konkretnych postaci AI, jeśli uznają to za stosowne. Dodatkowo, będą otrzymywać informacje o tematach, które ich dzieci poruszają w rozmowach z postaciami AI oraz z samym Meta AI.

Firma planuje wprowadzić te narzędzia kontroli na Instagramie na początku przyszłego roku. Początkowo będą dostępne w języku angielskim w Stanach Zjednoczonych, Wielkiej Brytanii, Kanadzie i Australii.

„Zdajemy sobie sprawę, że rodzice mają już dużo na głowie, jeśli chodzi o bezpieczne poruszanie się ich dzieci po Internecie, dlatego dokładamy wszelkich starań, aby zapewnić im pomocne narzędzia i zasoby, które ułatwią im to zadanie, zwłaszcza w kontekście nowych technologii, takich jak AI” – napisali we wspólnym oświadczeniu Adam Mosseri, szef Instagrama, oraz Aleksandr Wang, nowo mianowany szef Meta AI.

Wcześniej w tym tygodniu Meta poinformowała, że treści i doświadczenia AI przeznaczone dla nastolatków będą zgodne ze standardami kategorii wiekowej PG-13, co oznacza unikanie tematów wrażliwych, takich jak ekstremalna przemoc, nagość i używanie narkotyków.

Obecnie nastolatkowie mogą wchodzić w interakcje tylko z ograniczoną liczbą postaci, które przestrzegają wytycznych dotyczących treści odpowiednich dla ich wieku. Rodzice mogą również ustawić limity czasowe na interakcje nastolatków z postaciami AI. Wcześniej w tym roku Instagram ogłosił, że wykorzystuje sztuczną inteligencję do identyfikowania osób, które próbują obejść ograniczenia wiekowe, fałszując swój wiek w aplikacji.

W ostatnich tygodniach kilka platform, w tym OpenAI, Meta i YouTube, wprowadziło narzędzia i kontrole mające na celu zapewnienie bezpieczeństwa nastolatkom. Zmiany te następują w związku z rosnącymi obawami dotyczącymi wpływu mediów społecznościowych na zdrowie psychiczne nastolatków oraz pozwami sądowymi przeciwko firmom zajmującym się sztuczną inteligencją, w których zarzuca się im udział w samobójstwach nastolatków. Krytycy zwracają uwagę, że deklarowane działania Meta są reaktywne i niewystarczające wobec potencjalnych zagrożeń związanych z niekontrolowanym dostępem młodych ludzi do zaawansowanych technologii AI.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *