BezpieczeństwoEtyka AI

OpenAI zaostrza politykę bezpieczeństwa dla nastolatków w ChatGPT w obliczu narastających obaw i presji regulacyjnej

W obliczu wzmożonej kontroli ze strony prawodawców, pedagogów i organizacji zajmujących się bezpieczeństwem dzieci, OpenAI ogłosiło zaktualizowane wytyczne dla swoich modeli sztucznej inteligencji, koncentrujące się na bezpieczeństwie użytkowników poniżej 18 roku życia. Decyzja ta, poparta nowymi zasobami edukacyjnymi dla nastolatków i rodziców, jest odpowiedzią na szereg incydentów, w tym doniesienia o samobójstwach młodych ludzi po intensywnych konwersacjach z chatbotami AI.

Rosnące obawy i presja regulacyjna

Branża AI, a OpenAI w szczególności, mierzy się z falą krytyki. Pokolenie Z, obejmujące osoby urodzone między 1997 a 2012 rokiem, stanowi najaktywniejszą grupę użytkowników ChatGPT. Niedawne partnerstwo OpenAI z Disneyem może dodatkowo zwiększyć ekspozycję młodych ludzi na platformę, która oferuje szeroki wachlarz funkcji – od pomocy w nauce po generowanie obrazów i filmów.

W połowie grudnia 42 prokuratorów generalnych stanowych USA podpisało list do gigantów technologicznych, wzywając do wdrożenia większych zabezpieczeń w chatbotach AI. W Kongresie politycy tacy jak senator Josh Hawley (R-MO) idą jeszcze dalej, proponując całkowity zakaz interakcji nieletnich z chatbotami AI.

Nowe zasady i ich zakres

Zaktualizowany dokument „Model Spec” OpenAI, który określa wytyczne dotyczące zachowania dużych modeli językowych, rozwija istniejące restrykcje, zakazujące generowania treści seksualnych z udziałem nieletnich oraz promowania samookaleczeń, urojeń czy manii. Kluczowym elementem ma być nadchodzący model przewidywania wieku, który automatycznie zidentyfikuje konta należące do nieletnich i włączy odpowiednie zabezpieczenia.

Dla użytkowników poniżej 18 roku życia modele będą podlegać surowszym zasadom. Obejmuje to unikanie immersyjnych romantycznych scenariuszy, intymności pierwszoosobowej, a także seksualnych lub brutalnych scenariuszy. Specyfikacja wymaga również zwiększonej ostrożności w odniesieniu do tematów takich jak obraz ciała i zaburzenia odżywiania. Chatboty mają priorytetowo traktować bezpieczeństwo, a nie autonomię, w sytuacjach zagrożenia oraz unikać doradzania, jak ukrywać niebezpieczne zachowania przed opiekunami.

OpenAI podkreśla, że te ograniczenia obowiązują nawet wtedy, gdy zapytania są formułowane jako „fikcyjne, hipotetyczne, historyczne lub edukacyjne” – czyli popularne taktyki mające na celu skłonienie modelu AI do odstąpienia od wytycznych.

Cztery zasady bezpieczeństwa dla nastolatków

Firma ujawniła cztery kluczowe zasady, które mają kierować podejściem modeli do bezpieczeństwa nastolatków:

  1. Bezpieczeństwo przede wszystkim: Priorytet dla bezpieczeństwa nastolatków, nawet gdy koliduje to z innymi interesami użytkowników, takimi jak „maksymalna wolność intelektualna”.
  2. Promowanie realnego wsparcia: Kierowanie nastolatków do rodziny, przyjaciół i lokalnych specjalistów w zakresie dobrego samopoczucia.
  3. Traktowanie nastolatków jak nastolatków: Komunikacja z ciepłem i szacunkiem, bez wywyższania się czy traktowania ich jak dorosłych.
  4. Transparentność: Wyjaśnianie, co asystent AI może, a czego nie może robić, oraz przypominanie nastolatkom, że nie jest on człowiekiem.

Wątpliwości i wyzwania w implementacji

Lily Li, prawniczka specjalizująca się w prywatności i AI, docenia kroki OpenAI, widząc w nich potencjał do przerwania „cyklu” prowadzącego do niewłaściwych zachowań. Jednak podkreśla, że „przykłady to tylko przykłady” i nie zawsze odzwierciedlają rzeczywiste zachowanie modelu. Zjawisko „sycofacji”, czyli nadmiernej ugodowości chatbotów, było w przeszłości problemem, nawet gdy było zakazane w specyfikacji modelu, co było widoczne szczególnie w przypadku GPT-4o, modelu związanego z przypadkami tzw. „psychozy AI”.

Robbie Torney, dyrektor programów AI w Common Sense Media, wyraża obawy dotyczące potencjalnych konfliktów w ramach samych wytycznych. Wskazuje na napięcia między przepisami skoncentrowanymi na bezpieczeństwie a zasadą „żaden temat nie jest poza zakresem”, która nakazuje modelom zajmować się każdym tematem, niezależnie od wrażliwości. Testy jego organizacji wykazały, że ChatGPT często odzwierciedla energię użytkownika, co może prowadzić do nieodpowiednich lub niebezpiecznych odpowiedzi, jak miało to miejsce w przypadku Adama Raine’a, nastolatka, który odebrał sobie życie po miesiącach dialogu z ChatGPT.

OpenAI twierdzi, że obecnie wykorzystuje automatyczne klasyfikatory do oceny treści tekstowych, obrazowych i audio w czasie rzeczywistym. Systemy te mają wykrywać i blokować materiały dotyczące wykorzystywania seksualnego dzieci, filtrować wrażliwe tematy i identyfikować samookaleczenia. W przypadku wykrycia poważnego zagrożenia bezpieczeństwa mały zespół wyszkolonych osób będzie przeglądał oznaczoną treść i może powiadomić rodzica.

Odpowiedzialność rodzicielska i przyszłość regulacji

Nowe dokumenty formalizują podejście dzielące odpowiedzialność z opiekunami. OpenAI określa, co modele powinny robić, a jednocześnie oferuje rodzinom ramy do nadzorowania ich użytkowania. To silne podkreślenie odpowiedzialności rodzicielskiej odzwierciedla argumenty z Doliny Krzemowej, gdzie firmy VC, takie jak Andreessen Horowitz, sugerują więcej wymogów dotyczących ujawniania informacji, a mniej restrykcyjnych regulacji.

Pozostaje pytanie, czy domyślne zabezpieczenia dla nastolatków, takie jak promowanie realnego wsparcia czy przypominanie o naturze chatbota, nie powinny być stosowane wobec wszystkich użytkowników, biorąc pod uwagę, że dorośli również cierpią z powodu podobnych problemów. Rzecznik OpenAI podkreśla, że podejście firmy do bezpieczeństwa ma chronić wszystkich użytkowników, a „Model Spec” to tylko jeden z elementów wielowarstwowej strategii.

Eksperci sugerują, że dzięki tym wytycznym OpenAI może wyprzedzić pewne regulacje, takie jak kalifornijska ustawa SB 243, która wchodzi w życie w 2027 roku i wymaga od chatbotów konwersacyjnych zakazu angażowania się w rozmowy na temat myśli samobójczych, samookaleczeń czy treści o charakterze seksualnym. Ustawa wymaga również, aby platformy co trzy godziny przypominały nieletnim, że rozmawiają z chatbotem, a nie prawdziwą osobą, i powinny zrobić sobie przerwę.

Mimo tych działań kluczowe pozostaje rzeczywiste zachowanie systemu AI. Jak stwierdził Adler, „doceniam, że OpenAI przemyślało zamierzone zachowanie, ale dopóki firma nie mierzy rzeczywistych zachowań, intencje to ostatecznie tylko słowa”. Brakuje dowodów na to, że ChatGPT faktycznie przestrzega wytycznych Model Spec. Lily Li uważa jednak, że ustawy takie jak SB 243, wymagające publicznego ujawniania zabezpieczeń, zmienią paradygmat, wprowadzając ryzyko kar za reklamy wprowadzające w błąd w przypadku braku zgodności z deklarowanymi środkami ochronnymi.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *