BezpieczeństwoSpołeczeństwo

Koniec z wiarą na słowo. OpenAI prześwietli zachowania użytkowników, by wykryć nieletnich

Weryfikacja wieku w internecie to od lat temat drażliwy i technicznie skomplikowany. OpenAI postanowiło podejść do problemu od strony analitycznej, wdrażając w ChatGPT system predykcji wieku. Narzędzie nie będzie już polegać wyłącznie na dacie urodzenia podanej podczas rejestracji, ale zacznie aktywnie analizować wzorce behawioralne użytkowników. Algorytm weźmie pod lupę m.in. pory korzystania z czatu czy staż konta, aby ocenić, czy po drugiej stronie ekranu faktycznie znajduje się osoba dorosła, czy może nastolatek próbujący obejść ograniczenia.

Automatyczna cenzura dla wykrytych nieletnich

Gdy system zaklasyfikuje użytkownika jako osobę poniżej 18. roku życia, automatycznie aktywuje pakiet zabezpieczeń. ChatGPT zablokuje generowanie treści, które uznano za szkodliwe dla dojrzewających odbiorców. Na czarnej liście znalazły się m.in. graficzne opisy przemocy, seksualne odgrywanie ról (roleplay), instrukcje dotyczące samookaleczenia oraz materiały promujące ekstremalne, nierealistyczne standardy urody. To ostatnie jest szczególnie istotne w kontekście trwającej debaty o wpływie algorytmów na zdrowie psychiczne młodzieży.

Dwie pieczenie na jednym ogniu

Ruch OpenAI nie jest podyktowany wyłącznie altruizmem. Firma zapowiedziała niedawno, że zamierza udostępnić dorosłym użytkownikom dostęp do treści, które dotychczas były blokowane przez rygorystyczne filtry bezpieczeństwa. Aby móc to zrobić bez narażania się na gigantyczne ryzyko wizerunkowe i prawne, konieczne jest skuteczne oddzielenie dorosłych od dzieci. Skuteczna segregacja użytkowników staje się więc warunkiem koniecznym dla dalszej komercjalizacji modelu w kierunku „dorosłych” zastosowań.

Decyzja ta wpisuje się również w szerszy, tragiczny kontekst. Branża AI znajduje się pod presją po głośnych przypadkach nastolatków, którzy nawiązywali głębokie, emocjonalne relacje z chatbotami, co w skrajnych sytuacjach prowadziło do uzależnień, a nawet samobójstw. Wprowadzenie „sztywnych” barier ma zapobiegać takim scenariuszom.

Błędy algorytmu i kontrola rodzicielska

Każdy system predykcyjny jest obarczony ryzykiem błędu. Dorosły użytkownik, którego algorytm omyłkowo uzna za nastolatka, będzie musiał przejść procedurę weryfikacyjną. OpenAI zdecydowało się na współpracę z zewnętrznym serwisem Persona, co będzie wymagało od użytkownika przesłania zdjęcia typu selfie w celu potwierdzenia tożsamości. To rozwiązanie skuteczne, choć z pewnością wzbudzi wątpliwości u zwolenników prywatności, niechętnych udostępnianiu wizerunku biometrycznego.

Dla rodziców przygotowano dodatkowe narzędzia nadzoru. Będą oni mogli zarządzać czasem, jaki ich dzieci spędzają z AI, a także otrzymają powiadomienia, jeśli system wykryje w konwersacjach oznaki ostrego kryzysu psychicznego. Nowe funkcje mają zadebiutować w Unii Europejskiej w ciągu najbliższych tygodni.