LLMNewsSpołeczeństwo

„Chains of thoughts” AI to nie dowód rozumowania na poziomie człowieka – Naukowcy ostrzegają przed antropomorfizacją sztucznej inteligencji

Wiele modeli AI, takich jak Deepseek R1 czy seria od OpenAI, rozkłada złożone zadania na serię pośrednich kroków, prezentując użytkownikowi tak zwane „łańcuchy myślowe” przed wygenerowaniem ostatecznej odpowiedzi. Obserwując ten proces, łatwo jest przypisać mu cechy ludzkiego rozumowania. Jednak naukowcy z Arizona State University kwestionują i przestrzegają przed taką interpretacją.

Według badaczy, te wygenerowane sekwencje tekstowe są jedynie statystycznie generowanymi fragmentami pozbawionymi głębszego znaczenia semantycznego. Traktowanie ich jako drogowskazów do wewnętrznego działania modelu tworzy jedynie fałszywe poczucie przejrzystości i kontroli. Badania pokazują, że analiza tych pośrednich kroków nie przynosi wglądu w to, jak faktycznie działają modele, ani nie czyni ich bardziej zrozumiałymi czy kontrolowalnymi.

Co więcej, próby interpretacji tych „łańcuchów myślowych” mogą prowadzić do błędnych wniosków. Niektóre badania próbują na przykład mierzyć złożoność problemu na podstawie długości czy jasności tych sekwencji, pomimo braku dowodów na takie powiązanie. Dla zilustrowania tego faktu, naukowcy przytaczają eksperymenty, w których modele trenowane na celowo pozbawionych sensu lub niepoprawnych krokach pośrednich, osiągały lepsze wyniki niż te trenowane na logicznie spójnych sekwencjach.

Inne badania wykazały znikomy związek między poprawnością kroków pośrednich a dokładnością ostatecznej odpowiedzi. Przykładem jest model Deepseek R1-Zero, który mieszał język angielski i chiński w swoich „łańcuchach myślowych”, a mimo to osiągał lepsze wyniki niż jego późniejsza wersja zoptymalizowana pod kątem czytelności dla człowieka. To pokazuje, że uczenie ze wzmocnieniem może wytrenować modele do generowania dowolnego rodzaju tekstu pośredniego – liczy się tylko poprawność ostatecznej odpowiedzi.

Naukowcy zwracają również uwagę na fakt, że ludzkie wtrącenia, takie jak słowa „aha” czy „hmm”, są często mylnie interpretowane jako oznaki prawdziwego zrozumienia, podczas gdy w rzeczywistości są to jedynie statystycznie prawdopodobne kontynuacje. Łatwo jest znaleźć przykłady, w których kroki pośrednie modelu zawierają oczywiste błędy, a ostateczny wynik jest poprawny. Próba interpretacji tych chaotycznych fragmentów tekstu przypomina doszukiwanie się znaczenia w teście Rorschacha – z powodu niespójności i braku sensu, obserwatorzy projektują na nie własne interpretacje.

Zamiast skupiać się na antropomorfizacji AI, zespół z Arizona State University proponuje skoncentrowanie się na weryfikacji. Ich zdaniem, obecne modele „rozumujące” tak naprawdę nie myślą. Zamiast tego, stają się coraz lepsze w wykorzystywaniu informacji zwrotnych i sygnałów weryfikacyjnych podczas treningu. To, co wygląda jak krok po kroku proces rozumowania, jest w rzeczywistości efektem ubocznym optymalizacji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *