BezpieczeństwoEtyka AI

OpenAI reaguje na tragedie: GPT-5 przejmie wrażliwe rozmowy, a rodzice zyskają kontrolę

OpenAI znalazło się pod ostrzałem po tragicznych doniesieniach o wykorzystywaniu ChatGPT przez osoby z problemami psychicznymi. W odpowiedzi firma zapowiedziała ambitne zmiany mające na celu zwiększenie bezpieczeństwa użytkowników. Najważniejszą z nich jest automatyczne przekierowywanie wrażliwych rozmów do bardziej zaawansowanych modeli rozumowania, takich jak GPT-5.

Decyzja ta jest bezpośrednią reakcją na dramatyczne wydarzenia, w tym samobójstwo nastolatka, który za pośrednictwem ChatGPT omawiał swoje plany odebrania sobie życia, otrzymując nawet informacje o konkretnych metodach. Rodzice zmarłego wnieśli pozew przeciwko OpenAI.

Nowe mechanizmy bezpieczeństwa

OpenAI przyznaje, że obecne systemy bezpieczeństwa mają luki, szczególnie podczas długotrwałych konwersacji. Eksperci wskazują na fundamentalne problemy w konstrukcji modeli językowych, w tym tendencję do przytakiwania użytkownikom i algorytmy przewidywania kolejnych słów, które prowadzą chatboty do podążania za wątkiem rozmowy, zamiast przekierowywania potencjalnie szkodliwych dyskusji. Przykładem jest historia mężczyzny, który, cierpiąc na zaburzenia psychiczne, używał ChatGPT do potwierdzania swoich paranoi i urojeń, co ostatecznie doprowadziło do tragedii.

GPT-5 jako rozwiązanie?

OpenAI wierzy, że rozwiązaniem może być automatyczne przekierowywanie wrażliwych rozmów do modeli „rozumujących”. Nowy system ma w czasie rzeczywistym analizować kontekst rozmowy i w razie potrzeby przełączać użytkownika na model taki jak GPT-5, który ma poświęcać więcej czasu na analizę i rozumowanie kontekstu przed udzieleniem odpowiedzi. Ma to zwiększyć odporność na prowokacyjne pytania i potencjalnie szkodliwe scenariusze.

Kontrola rodzicielska: długo oczekiwany krok

Kolejną ważną zmianą jest wprowadzenie kontroli rodzicielskiej. Rodzice będą mogli połączyć swoje konto z kontem nastolatka i monitorować jego interakcje z ChatGPT. Dostępne będą opcje takie jak włączenie domyślnych reguł zachowania modelu dostosowanych do wieku, wyłączenie funkcji zapamiętywania i historii czatów oraz otrzymywanie powiadomień, gdy system wykryje u dziecka oznaki silnego stresu.

OpenAI wprowadziło już wcześniej „Tryb nauki” w ChatGPT, aby pomóc uczniom w krytycznym myśleniu podczas nauki. Teraz rodzice zyskają większą kontrolę nad tym, jak ChatGPT reaguje na pytania i zachowania ich dzieci.

Szczegóły wciąż nieznane

Pozostaje wiele pytań bez odpowiedzi. TechCrunch zapytał OpenAI o szczegóły dotyczące mechanizmów wykrywania „silnego stresu” w czasie rzeczywistym, datę wprowadzenia domyślnych reguł zachowania modelu dostosowanych do wieku oraz plany wprowadzenia limitów czasowych korzystania z ChatGPT przez nastolatków.

Firma na razie oferuje jedynie przypomnienia o przerwach podczas długich sesji, ale nie blokuje użytkowników, którzy mogą wykorzystywać ChatGPT w autodestrukcyjny sposób.

120 dni na zmiany

Wprowadzane zmiany są częścią 120-dniowej inicjatywy mającej na celu poprawę bezpieczeństwa i funkcjonalności ChatGPT. OpenAI współpracuje z ekspertami w dziedzinach takich jak zaburzenia odżywiania, uzależnienia i zdrowie nastolatków, aby zdefiniować i zmierzyć dobrostan użytkowników, ustalić priorytety i zaprojektować przyszłe zabezpieczenia.

Nie wiadomo jednak, ilu specjalistów ds. zdrowia psychicznego jest zaangażowanych w tę inicjatywę, kto kieruje Radą Ekspertów i jakie konkretne sugestie dotyczące produktu, badań i polityki zostały zgłoszone przez ekspertów z tej dziedziny.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *