AI jako klucz do ludzkiego umysłu? Krytyczne spojrzenie na nowe modele behawioralne
Skomplikowanie ludzkiego umysłu od wieków stanowi wyzwanie dla naukowców. Paradoksalnie, równie trudne do pełnego zrozumienia okazują się współczesne systemy sztucznej inteligencji. Choć dzisiejsze sieci neuronowe, z ich gigantycznym zapotrzebowaniem na energię i dane, zdają się dalekie od oszczędnego działania ludzkiego mózgu, to jednak ich architektura bazuje na biologicznych inspiracjach. Obie struktury – biologiczny mózg i sztuczne sieci neuronowe – składają się z milionów podjednostek i jako jedyne na Ziemi potrafią płynnie i elastycznie generować język. A co najistotniejsze, dla obu zrozumienie ich wewnętrznego działania pozostaje w dużej mierze zagadką.
AI w psychologii: Przewidywanie a zrozumienie
Perspektywa wykorzystania brain-like sieci neuronowych jako narzędzia poznawczego zyskuje na znaczeniu w neurobiologii i psychologii. Niedawno prestiżowe czasopismo „Nature” opublikowało dwa badania, które ilustrują zastosowanie sieci neuronowych do przewidywania zachowań ludzi i zwierząt w eksperymentach psychologicznych. Autorzy tych prac sugerują, że wyszkolone modele AI mogą przyczynić się do głębszego poznania ludzkiego umysłu.
Jedno z badań opisywało transformację dużego modelu językowego (LLM) w tak zwany „podstawowy model ludzkiej poznacji”. Ponieważ standardowe LLM-y nie zawsze odzwierciedlają ludzkie zachowania – na przykład w sytuacjach wymagających irracjonalnych decyzji, jak w kasynie – naukowcy zestroili model Llama 3.1 firmy Meta na danych pochodzących ze 160 eksperymentów psychologicznych. Trening obejmował zadania takie jak optymalizacja wygranych na „jednorękim bandycie” czy zapamiętywanie sekwencji liter. Powstały model nazwano Centaurem. Okazał się on znacznie skuteczniejszy w przewidywaniu zachowań niż tradycyjne modele psychologiczne oparte na prostych równaniach matematycznych.
Celne przewidywanie reakcji w eksperymentach psychologicznych ma wartość samą w sobie – Centaur mógłby na przykład służyć do komputerowego pilotowania badań przed rekrutacją i opłacaniem prawdziwych uczestników. Jednak autorzy pracy poszli dalej, sugerując, że Centaur to coś więcej niż maszyna do przewidywania. Argumentują, że analizując mechanizmy pozwalające Centaurowi skutecznie naśladować ludzkie zachowania, naukowcy mogą formułować nowe teorie dotyczące wewnętrznych procesów umysłowych.
Granice interpretacji: Ile Centaur naprawdę mówi o umyśle?
Nie wszyscy psychologowie podzielają ten optymizm. Rodzą się pytania, czy Centaur w ogóle jest w stanie dostarczyć rzetelnych informacji o umyśle. Choć model lepiej przewiduje ludzkie zachowania, to operuje miliard razy większą liczbą parametrów niż tradycyjne modele. Zewnętrzne podobieństwo zachowań nie oznacza, że procesy wewnętrzne są identyczne. Olivia Guest, asystentka profesora kognitywistyki obliczeniowej na Uniwersytecie Radboud w Holandii, porównuje Centaura do kalkulatora, który potrafi przewidzieć wynik dodawania dwóch liczb, ale niczego nie uczy nas o tym, jak ludzki umysł dokonuje operacji matematycznych.
Nawet jeśli Centaur rzeczywiście „chwyta” coś istotnego z ludzkiej psychologii, wydobycie tych spostrzeżeń z milionów neuronów modelu pozostaje wyzwaniem. Badacze AI intensywnie pracują nad interpretowalnością dużych modeli językowych, lecz „czarna skrzynka” działania wciąż pozostaje w dużej mierze zamknięta. Zrozumienie gigantycznego modelu sieci neuronowej ludzkiego umysłu może okazać się równie trudne, co zrozumienie samego umysłu.
Alternatywne podejścia: Małe sieci, większe zrozumienie?
Drugie badanie opublikowane w „Nature” prezentuje inną strategię: skupienie się na miniaturowych sieciach neuronowych, liczących czasem zaledwie jeden neuron, które mimo to są w stanie przewidywać zachowania myszy, szczurów, małp, a nawet ludzi. Niewielki rozmiar tych sieci umożliwia śledzenie aktywności każdego pojedynczego neuronu i analizowanie, w jaki sposób sieć generuje swoje przewidywania behawioralne. Chociaż nie ma gwarancji, że te modele działają identycznie jak mózgi, które imitują, mogą one generować sprawdzalne hipotezy dotyczące poznania u ludzi i zwierząt.
Niewątpliwie istnieje kompromis między przewidywalnością a zrozumiałością. W przeciwieństwie do Centaura, który został wytrenowany do imitowania ludzkich zachowań w dziesiątkach zadań, każda z tych miniaturowych sieci specjalizuje się w przewidywaniu zachowania w jednym, konkretnym zadaniu – na przykład, jak ludzie wybierają spośród różnych „jednorękich bandytów”. Jak podkreśla profesor Marcelo Mattar z New York University, współautor obu badań: „Jeśli zachowanie jest naprawdę złożone, potrzebna jest duża sieć. Kompromisem jest oczywiście to, że zrozumienie jej staje się bardzo, bardzo trudne.”
Ten dylemat między predykcją a rozumieniem jest kluczową cechą nauki opartej na sieciach neuronowych. Choć badania takie jak te profesora Mattara, z ich maleńkimi sieciami, czynią postępy w zamykaniu tej luki, przewidywalność złożonych systemów – od ludzkich umysłów po systemy klimatyczne – wciąż znacznie wyprzedza nasze zdolności do ich pełnego zrozumienia.
