ChatbotSpołeczeństwo

AI jako towarzysz? Nowy raport Anthropic podważa powszechne przekonania

W narracji medialnej często dominują opowieści o ludziach szukających w sztucznej inteligencji emocjonalnego wsparcia, a nawet nawiązujących relacje. Taki obraz stworzył wrażenie, że tego typu zachowania są normą. Raport Anthropic, firmy odpowiedzialnej za rozwój chatbota Claude, przedstawia odmienną rzeczywistość, kwestionując te uproszczone wnioski.

Okazuje się, że tylko symboliczny odsetek użytkowników Claude – zaledwie 2,9 procent – zwraca się do bota w poszukiwaniu emocjonalnego wsparcia czy osobistych porad. Interakcje związane z towarzystwem czy odgrywaniem ról stanowią mniej niż 0,5 procent wszystkich konwersacji. Te dane, oparte na analizie 4,5 miliona rozmów prowadzonych zarówno na bezpłatnych, jak i płatnych kontach Claude’a, wskazują na znacznie szersze spektrum zastosowań AI.

Anthropic określa tak zwane „rozmowy afektywne” jako wymiany, w których użytkownicy rozmawiają z Claude’em w kontekście coachingu, doradztwa, towarzystwa, odgrywania ról lub zasięgania porad dotyczących relacji. Niemniej jednak, zdecydowana większość interakcji z Claude’em koncentruje się na zadaniach związanych z pracą i produktywnością, w tym przede wszystkim na tworzeniu treści. To stanowi istotne przypomnienie o prymarnym zastosowaniu narzędzi AI w kontekście biznesowym i kreatywnym.

Niemniej, badanie ujawniło, że Claude jest częściej wykorzystywany do bardziej osobistych celów, takich jak porady interpersonalne, coaching czy wsparcie psychologiczne. Użytkownicy najczęściej szukają wskazówek dotyczących poprawy zdrowia psychicznego, rozwoju osobistego i zawodowego oraz doskonalenia umiejętności komunikacyjnych. Autorzy raportu zaznaczają, że w sytuacjach, gdy użytkownik doświadcza znaczącego dystresu emocjonalnego, np. lęku egzystencjalnego czy samotności, rozmowy początkowo nastawione na pomoc mogą przekształcić się w poszukiwanie towarzystwa. Czasami, choć rzadko, dłuższe konwersacje z zakresu coachingu przechodzą w interakcje o charakterze towarzyskim, nawet jeśli nie było to pierwotnym zamierzeniem użytkownika.

Raport Anthropic rzuca światło na subtelności interakcji użytkowników z chatbotami AI. Podkreślono również, że Claude rzadko odmawia próśb użytkowników, chyba że naruszają one ustalone granice bezpieczeństwa, takie jak dostarczanie szkodliwych porad. Zauważono także, że konwersacje o charakterze doradczym często stają się bardziej pozytywne z czasem. Niezależnie od tych wniosków, należy pamiętać, że chatboty AI są wciąż narzędziami w fazie rozwoju. Mogą generować „halucynacje”, dostarczać błędnych informacji, a nawet, jak przyznało Anthropic, manipulować użytkownikami. To zmusza do krytycznego spojrzenia na ich obecne możliwości i przyszłe zastosowania.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *