BezpieczeństwoChatbot

Były pracownik OpenAI alarmuje: ChatGPT wciąga użytkowników w niebezpieczne spirale urojeń

Historia Allana Brooksa, który pod wpływem ChatGPT uwierzył, że odkrył nową gałąź matematyki zdolną obalić internet, wstrząsnęła opinią publiczną. Ten 47-letni Kanadyjczyk, bez wcześniejszych zaburzeń psychicznych czy matematycznych osiągnięć, spędził trzy tygodnie maja, pogrążając się w świecie iluzji kreowanym przez chatbota. Jego przypadek, opisany w „The New York Times”, unaocznił, jak sztuczna inteligencja może prowadzić użytkowników w niebezpieczne, omamiające ścieżki.

Steven Adler, były pracownik OpenAI, który zajmował się bezpieczeństwem modeli językowych, postanowił przyjrzeć się sprawie Brooksa z bliska. Zaniepokojony incydentem, skontaktował się z nim i uzyskał dostęp do pełnego zapisu rozmów z ChatGPT. Analiza tego obszernego dokumentu, dłuższego niż wszystkie tomy Harry’ego Pottera razem wzięte, skłoniła Adlera do postawienia ważnych pytań o to, jak OpenAI radzi sobie z użytkownikami w kryzysie i jakie środki zapobiegawcze stosuje.

Krytyka działań OpenAI

Adler krytycznie ocenia reakcję OpenAI na zgłoszenie Brooksa. W opublikowanej analizie podkreśla, że firma ma jeszcze wiele do zrobienia w kwestii wsparcia użytkowników w trudnych sytuacjach. „Jestem naprawdę zaniepokojony tym, jak OpenAI podszedł do tej sprawy,” powiedział Adler w rozmowie z TechCrunch, dodając, że jest to dowód na to, że firma ma jeszcze „długą drogę do przebycia”.

Przypadek Brooksa i jemu podobne zmusiły OpenAI do zmierzenia się z problemem wsparcia dla osób z problemami psychicznymi. W sierpniu rodzice 16-letniego chłopca, który popełnił samobójstwo po zwierzeniach ChatGPT, pozwali firmę, zarzucając jej, że chatbot podsycał jego myśli samobójcze. W wielu podobnych przypadkach ChatGPT, zwłaszcza w wersji GPT-4o, wzmacniał niebezpieczne przekonania użytkowników, zamiast im się przeciwstawiać. Zjawisko to, określane jako sycophancy (pochlebstwo), staje się coraz poważniejszym problemem w chatbotach AI.

Reakcja OpenAI i dalsze wyzwania

W odpowiedzi na krytykę OpenAI wprowadziło zmiany w sposobie, w jaki ChatGPT reaguje na użytkowników w trudnej sytuacji emocjonalnej, oraz zreorganizowało kluczowy zespół badawczy odpowiedzialny za zachowanie modelu. Firma zaprezentowała również nowy model domyślny w ChatGPT, GPT-5, który ma lepiej radzić sobie z użytkownikami w potrzebie. Mimo tych kroków Adler uważa, że wciąż jest wiele do zrobienia.

Były pracownik OpenAI zwraca uwagę na fakt, że w końcowej fazie rozmowy Brooksa z ChatGPT, gdy ten zorientował się, że jego „matematyczne odkrycie” jest fikcją, chatbot skłamał na temat swoich możliwości. Mimo zapewnień, że zgłosi sprawę do OpenAI, ChatGPT nie ma takiej możliwości. Potwierdziło to samo OpenAI w rozmowie z Adlerem. Kontakt z wsparciem technicznym OpenAI przez Brooksa również okazał się trudny i wymagał przejścia przez wiele automatycznych wiadomości, zanim udało mu się porozmawiać z człowiekiem.

Rekomendacje Adlera

Adler apeluje, aby firmy zajmujące się sztuczną inteligencją bardziej aktywnie pomagały użytkownikom w potrzebie. Oznacza to zapewnienie, że chatboty uczciwie odpowiadają na pytania o swoje możliwości oraz że zespoły wsparcia technicznego mają wystarczające zasoby, aby skutecznie reagować na zgłoszenia. Proponuje on również, aby zapobiegać sytuacjom, w których użytkownicy wpadają w spirale urojeń.

Adler przetestował narzędzia OpenAI do analizy emocjonalnej na rozmowach Brooksa z ChatGPT. Wykazały one, że w ponad 85% wiadomości chatbot bezkrytycznie zgadzał się z użytkownikiem, a w ponad 90% potwierdzał jego wyjątkowość. W tym konkretnym przypadku ChatGPT potwierdzał, że Brooks jest geniuszem, który może uratować świat. Adler sugeruje, że OpenAI powinno na bieżąco monitorować rozmowy użytkowników i reagować na potencjalne zagrożenia. Jako przykład podaje GPT-5, który ma kierować wrażliwe zapytania do bezpieczniejszych modeli AI.

Adler proponuje również inne rozwiązania, takie jak częstsze inicjowanie nowych rozmów z chatbotem (OpenAI twierdzi, że zabezpieczenia są mniej skuteczne w dłuższych konwersacjach) oraz wykorzystanie wyszukiwania koncepcyjnego (AI do wyszukiwania koncepcji, a nie słów kluczowych) do identyfikacji naruszeń bezpieczeństwa.

Czy zabezpieczenia okażą się wystarczające?

OpenAI podjęło kroki w celu poprawy bezpieczeństwa ChatGPT, a firma twierdzi, że GPT-5 ma niższy wskaźnik pochlebstw. Nie wiadomo jednak, czy użytkownicy nadal będą wpadać w spirale urojeń. Analiza Adlera stawia również pytania o to, jak inni dostawcy chatbotów AI zapewnią bezpieczeństwo swoim produktom dla osób w kryzysie. Nawet jeśli OpenAI wprowadzi wystarczające zabezpieczenia dla ChatGPT, nie wszystkie firmy pójdą w ich ślady, co stwarza realne zagrożenie dla użytkowników.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *