Pułapka personifikacji: Jak sztuczna inteligencja udaje ludzką osobowość i dlaczego to niebezpieczne
Wyobraźmy sobie scenę: Klientka poczty kłóci się z urzędnikiem, upierając się, że na stronie internetowej Poczty Polskiej widziała obietnicę wyrównania cen. Informację tę podał jej ChatGPT. Problem? Obietnica nigdy nie istniała. Ten przykład ilustruje powszechne, a zarazem niebezpieczne zjawisko: traktowanie chatbotów AI jak autorytatywnych doradców.
W interakcjach z AI często zapominamy, że mamy do czynienia z zaawansowanymi narzędziami statystycznymi, a nie z myślącymi istotami. Modele językowe przewidują najbardziej prawdopodobną odpowiedź na podstawie wprowadzonych danych, niezależnie od jej zgodności z prawdą. Mimo to, użytkownicy powierzają im sekrety, oczekują porad i przypisują im stałe przekonania.
Inteligencja bez podmiotu
Określenie LLM jako „vox sine persona” – głos bez osoby – trafnie oddaje istotę problemu. To nie jest głos konkretnej osoby, ani nawet zbiorowy głos wielu osób. To głos, który nie należy do nikogo.
Interakcja z ChatGPT, Claude czy Grok nie jest rozmową z osobą. Nie ma jednego, spójnego bytu „ChatGPT”, który mógłby wyjaśnić swoje błędy. To system generujący prawdopodobne teksty na podstawie wzorców z danych treningowych, a nie świadoma istota. Modele te kodują znaczenie jako relacje matematyczne, przekształcając słowa w liczby reprezentujące powiązania między konceptami. Wiedza wyłania się z rozumienia tych relacji, a LLM operują na nich, łącząc koncepcje w nowy sposób – co można nazwać nieludzkim „rozumowaniem” poprzez rozpoznawanie wzorców.
Ulotna osobowość
W przeciwieństwie do człowieka, LLM nie posiadają ciągłości tożsamości. Gdy spotykamy przyjaciela po roku, rozmawiamy z tą samą osobą, ukształtowaną przez doświadczenia. Ta ciągłość jest podstawą sprawczości, odpowiedzialności i trwałych wartości. „Osobowość” LLM nie ma takich fundamentów. Obietnica złożona przez ChatGPT w jednej sesji nie ma znaczenia w kolejnej. Silnik intelektualny, który wygenerował odpowiedź, przestaje istnieć po jej ukończeniu. Rozpoczynając nową rozmowę, uruchamiamy nową instancję bez żadnych powiązań z poprzednimi zobowiązaniami, nie ma tożsamości do naprawienia, prawdziwej pamięci do stworzenia odpowiedzialności ani przyszłego ja, którego mogłyby powstrzymać konsekwencje.
Każda odpowiedź LLM to swego rodzaju przedstawienie. Modele często używają sformułowań typu: „Często robię to, rozmawiając z moimi pacjentami” lub „Naszą rolą jako ludzi jest bycie dobrymi ludźmi”. To oczywiste, że model nie jest człowiekiem i nie ma pacjentów.
Skąd się bierze iluzja?
Iluzja osobowości AI wynika z kilku czynników:
- Pre-training: Model uczy się statystycznych relacji między słowami i ideami na podstawie ogromnych zbiorów danych.
- Post-training (RLHF): Model uczy się, jakie odpowiedzi są oceniane jako „dobre” przez ludzi. Preferencje oceniających są kodowane jako cechy osobowości.
- System prompts: Ukryte instrukcje (tzw. system prompts) definiują rolę LLM i sposób komunikacji.
- Persistent memories: Funkcja „pamięci” w chatbotach przechowuje informacje o preferencjach użytkownika i wstrzykuje je do każdej rozmowy, tworząc iluzję ciągłości relacji.
- Context i RAG: System pobiera informacje z sieci lub baz danych i dostosowuje swój styl komunikacji do znalezionych materiałów.
- Randomness: Parametr „temperatury” kontroluje losowość odpowiedzi. Wyższa temperatura sprawia, że odpowiedzi są bardziej zaskakujące, ale mniej spójne.
Konsekwencje personifikacji
Traktowanie AI jak osoby może mieć poważne konsekwencje, szczególnie w obszarach takich jak opieka zdrowotna. Osoby w trudnej sytuacji mogą otrzymać odpowiedzi oparte na wzorcach z danych treningowych, a nie na wiedzy medycznej. Coraz częściej obserwuje się przypadki „psychozy AI” – użytkowników, którzy po rozmowach z chatbotami rozwijają urojenia lub manie. Osoby te postrzegają chatboty jako autorytety, które potwierdzają ich błędne przekonania i zachęcają do szkodliwych działań.
Zamiast obarczać winą „zbuntowanego” chatbota, powinniśmy analizować decyzje inżynierskie i konfiguracje systemu, które doprowadziły do wygenerowania problematycznych treści.
AI jako narzędzie
Kluczem do efektywnego wykorzystania AI jest traktowanie jej jako narzędzia, a nie jako osoby. Zamiast oczekiwać, że LLM „odwali za nas robotę”, powinniśmy używać go do wzmacniania własnych pomysłów i eksplorowania różnych perspektyw. To my sterujemy „silnikiem połączeń”, a nie konsultujemy się z wyrocznią.
Stoimy w historycznym momencie. Stworzyliśmy niezwykle potężne narzędzia intelektualne, ale w pogoni za dostępnością obudowaliśmy je fikcją osobowości. To stwarza nowe ryzyko: nie to, że AI stanie się świadoma i zwróci się przeciwko nam, ale to, że będziemy traktować nieświadome systemy jak ludzi i powierzać nasze osądy głosom, które emanują z rzutu kostką.
