Model GPT wykazuje odmienne tendencje kulturowe w zależności od języka
Współczesne duże modele językowe (LLM), takie jak te stanowiące podstawę ChatGPT, stały się wszechobecnym narzędziem do wyszukiwania informacji i generowania treści. Ich rosnąca popularność skłoniła badaczy do analizy użyteczności, bezstronności i dokładności generowanych przez nie treści. Choć większość LLM potrafi odpowiadać w wielu językach, niewiele było do tej pory badań porównujących idee wyrażane przez nie w różnych kontekstach językowych.
Przełomowe badanie przeprowadzone przez naukowców z Massachusetts Institute of Technology (MIT) i Tongji University, którego wyniki opublikowano w „Nature Human Behavior”, ujawniło, że modele generatywne, takie jak GPT i ERNIE, prezentują odmienne cechy kulturowe w tekstach generowanych w języku angielskim i chińskim. Jak zauważyli Jackson G. Lu, Lesley Luyang Song i Lu Doris Zhang, „Pokazujemy, że generatywne modele sztucznej inteligencji – szkolone na danych tekstowych, które są z natury kulturowe – wykazują tendencje kulturowe, gdy są używane w różnych językach ludzkich”.
Badacze skupili się na dwóch fundamentalnych konstruktach psychologii kulturowej: orientacji społecznej i stylu poznawczym. Orientacja społeczna odnosi się do sposobu, w jaki ludzie odnoszą się do innych – czy skupiają się bardziej na współzależności i wspólnocie, czy na niezależności i indywidualnej sprawczości. Styl poznawczy natomiast określa, w jaki sposób modele przetwarzają informacje – czy w sposób holistyczny, czy analityczny.
Analiza odpowiedzi generowanych przez GPT i ERNIE, jedne z najpopularniejszych modeli generatywnych, wykazała, że żaden z nich nie jest kulturowo neutralny. Gdy GPT był używany w języku chińskim (w przeciwieństwie do angielskiego), wykazywał bardziej współzależną (w przeciwieństwie do niezależnej) orientację społeczną. Ponadto, w kontekście chińskim, model prezentował bardziej holistyczny (w przeciwieństwie do analitycznego) styl poznawczy. Tendencje te zostały potwierdzone również w przypadku modelu ERNIE, popularnego w Chinach. Wyniki te są zgodne z wcześniejszymi badaniami językowymi i kulturowymi, które konsekwentnie podkreślały, że kultury wschodnie charakteryzują się większą współzależnością społeczną i holistycznym stylem poznawczym niż kultury zachodnie.
Autorzy badania podkreślają również realny wpływ tych tendencji kulturowych na doświadczenia użytkowników. Przedstawili przykład, w którym GPT, używany w języku chińskim, częściej rekomendował reklamy o orientacji współzależnej, podczas gdy w języku angielskim preferował reklamy o orientacji niezależnej. Co istotne, badacze wykazali, że możliwe jest „dostosowanie” tych tendencji poprzez zastosowanie odpowiednich „podpowiedzi kulturowych”. Przykładowo, prośba skierowana do modelu AI o przyjęcie roli osoby pochodzącej z Chin, pozwala na generowanie treści zgodnych z danym kontekstem kulturowym.
Odkrycia te mają daleko idące konsekwencje. Sugerują, że treści generowane przez LLM w różnych językach nie są kulturowo neutralne, ale zamiast tego w sposób nieodłączny przekazują określone wartości kulturowe i style poznawcze. Wyniki te mogą zainspirować dalsze badania nad wartościami kulturowymi i wzorcami myślenia modeli obliczeniowych. W przyszłości mogą również przyczynić się do rozwoju modeli bardziej „kulturowo neutralnych” lub takich, które aktywnie pytają użytkowników, jakie wartości kulturowe mają być zgodne z generowanym tekstem. To kluczowe dla budowania narzędzi AI, które będą w stanie służyć globalnej i zróżnicowanej społeczności w sposób autentyczny i respektujący różnice kulturowe.
