Sztuczna inteligencja uczy się emocji: czy to przełom, czy początek manipulacji?
Czy nadszedł świt emocjonalnie inteligentnych agentów AI? Wszystko na to wskazuje, jeśli wierzyć dwóm niezależnym badaniom opublikowanym w ostatnim czasie. Opublikowane artykuły naukowe ujawniają, że agenci AI mogą być konstruowani zarówno ze statycznym temperamentem, jak i zdolnością do dynamicznej interakcji.
Odkrycia te pojawiają się w newralgicznym momencie, ponieważ niemal codziennie media donoszą o przypadkach, w których chatboty nakłaniały osoby z problemami emocjonalnymi do szkodzenia sobie lub innym. Wyniki badań sugerują jednak, że AI wkracza w sferę, gdzie osobowość i uczucia mogą radykalnie kształtować sposób, w jaki agenci rozumują, mówią i negocjują. Jeden z zespołów badawczych pokazał, jak można „zaszczepić” dużym modelom językowym trwałe archetypy psychologiczne, podczas gdy drugi zademonstrował, że agenci mogą rozwijać strategie emocjonalne podczas wieloetapowych negocjacji.
Personalizacja AI – od statycznej osobowości do dynamicznych emocji
Osobowość i emocje przestają być jedynie powierzchownym dodatkiem do AI – stają się funkcjonalnymi elementami. Statyczne temperamenty czynią agentów bardziej przewidywalnymi i godnymi zaufania, a adaptacyjne strategie zwiększają skuteczność w negocjacjach i sprawiają, że interakcje wydają się niepokojąco ludzkie.
Jednak ta sama wiarygodność rodzi trudne pytania: jeśli AI potrafi schlebiać, nakłaniać lub argumentować z emocjonalnym niuansem, to kto jest odpowiedzialny, gdy te taktyki przekroczą granicę manipulacji? I jak weryfikować „zgodność emocjonalną” w systemach zaprojektowanych do naginania uczuć równie mocno, jak logiki?
Nadawanie AI osobowości
W artykule „Psychologically Enhanced AI Agents” Maciej Besta z Politechniki Federalnej w Zurychu i jego współpracownicy zaproponowali ramy o nazwie MBTI-in-Thoughts. Zamiast przekształcać modele, polegają na inżynierii promptów, aby zablokować cechy osobowości wzdłuż osi poznania i afektu.
Naukowcy, bazując na wskaźniku Myers-Briggs Type Indicator (MBTI), wykorzystali inżynierię promptów, aby „zaszczepić” agentom odmienne archetypy osobowości. Pozwoliło to kontrolować zachowanie wzdłuż dwóch fundamentalnych osi ludzkiej psychologii: poznania i afektu. Przetestowano to, przypisując modelom językowym cechy takie jak „ekspresyjny emocjonalnie” lub „zorientowany analitycznie”, a następnie mierząc wydajność. Agenci ekspresyjni byli lepsi w generowaniu narracji, a analityczni w rozumowaniu opartym na teorii gier.
Aby upewnić się, że osobowości się utrwaliły, zespół wykorzystał test 16Personalities do walidacji. Oznacza to, że AI musiała konsekwentnie przechodzić test osobowości, aby można ją było uznać za psychologicznie przygotowaną. W rezultacie powstał system, w którym programiści mogą przywoływać agentów o spójnych personach – empatycznego asystenta, chłodnego racjonalnego negocjatora, dynamicznego narratora – bez modyfikowania bazowego modelu.
Uczenie AI odczuwania w czasie rzeczywistym
Z kolei EvoEmo: Evolved Emotional Policies for LLM Agents in Multi-Turn Negotiation, autorstwa Yunbo Longa i jego współpracowników z Uniwersytetu w Cambridge, rozwiązuje odwrotny problem: nie tylko, jaką osobowość ma agent, ale jak może dynamicznie zmieniać emocje podczas negocjacji.
System modeluje emocje jako część procesu decyzyjnego Markova, ramy matematyczne, w których wyniki zależą nie tylko od bieżących wyborów, ale także od łańcucha wcześniejszych stanów i probabilistycznych przejść. EvoEmo wykorzystuje następnie ewolucyjne uczenie się ze wzmocnieniem, aby zoptymalizować te ścieżki emocjonalne. Mówiąc słowami autorów: „EvoEmo modeluje przejścia stanu emocjonalnego jako proces decyzyjny Markova i wykorzystuje optymalizację genetyczną opartą na populacji, aby rozwijać polityki emocjonalne o wysokiej nagrodzie w różnych scenariuszach negocjacyjnych”.
Zamiast ustalać ton emocjonalny agenta, EvoEmo pozwala modelowi dostosowywać się – stając się ugodowym, asertywnym lub sceptycznym w zależności od biegu dialogu. W testach agenci EvoEmo konsekwentnie pokonywali zarówno zwykłych agentów bazowych, jak i tych o statycznych emocjach. „EvoEmo konsekwentnie przewyższa obie linie bazowe, osiągając wyższe wskaźniki sukcesu, większą wydajność i większe oszczędności dla kupujących” – czytamy w artykule.
Mówiąc prościej: inteligencja emocjonalna to nie tylko ozdobnik. Wymiernie poprawia wyniki w zadaniach takich jak negocjacje.
Dwie strony tego samego medalu
Na pierwszy rzut oka artykuły te nie są ze sobą powiązane. Jeden dotyczy archetypów, drugi strategii. Ale czytane razem, kreślą dwuczęściową mapę tego, jak AI może ewoluować: MBTI-in-Thoughts zapewnia, że agent ma spójną osobowość – empatyczną lub racjonalną, ekspresyjną lub powściągliwą. EvoEmo zapewnia, że osobowość ta może zmieniać się podczas rozmowy, kształtując wyniki poprzez strategię emocjonalną. Wykorzystanie obu tych elementów to naprawdę ważna sprawa.
Wyobraźmy sobie bota obsługi klienta z cierpliwym ciepłem doradcy, który wie, kiedy twardo obstawać przy zasadach, lub bota negocjacyjnego, który zaczyna ugodowo, a staje się bardziej asertywny wraz ze wzrostem stawek. Kolejna generacja chatbotów nie tylko będzie intensywniej myśleć – będzie się też częściej obrażać, schlebiać i knuć.
