Bariera błędów. Dlaczego współczesna sztuczna inteligencja wciąż nie potrafi się uczyć?
Współczesne systemy sztucznej inteligencji, mimo imponującej sprawności w generowaniu tekstów czy rozwiązywaniu złożonych równań, działają w sposób zaskakująco kruchy. Jerry Tworek, jeden z kluczowych inżynierów stojących za przełomowymi modelami o1 i o3, zwrócił uwagę na krytyczny mankament obecnych architektur. W jego ocenie modele te są pozbawione mechanizmu aktualizacji własnych przekonań i wewnętrznej wiedzy w oparciu o napotkany błąd.
Iluzja logiki i problem „utknięcia”
Tworek, który niedawno opuścił OpenAI, by skupić się na rozwiązaniu tego problemu w ramach nowego przedsięwzięcia, opisuje proces trenowania sztucznej inteligencji jako proces „fundamentalnie niestabilny”. W przeciwieństwie do ludzkiej inteligencji, która wykazuje się elastycznością i zdolnością do samostabilizacji w obliczu trudności, algorytmy często stają w martwym punkcie. Jeśli model zawiedzie przy pierwszym podejściu, szanse na to, że samodzielnie odnajdzie nową ścieżkę do rozwiązania, drastycznie spadają.
Model, który nie wyciąga wniosków
To nie tylko subiektywna opinia byłego pracownika branżowego giganta. Badania naukowców z Apple oraz niezależne analizy akademickie potwierdzają zjawisko określane mianem „zapaści rozumowania”. Modele LLM, gdy zostaną postawione przed zadaniem wykraczającym poza wyuczone schematy, często tracą spójność logiczną. Wynika to z faktu, że sztuczna inteligencja uczy się statystycznych wzorców, a nie realnego wyciągania wniosków z niepowodzeń.
Przeszkoda na drodze do ogólnej sztucznej inteligencji (AGI)
Dla Tworka umiejętność samodzielnego „odblokowania się” i pracy nad trudnościami jest warunkiem koniecznym do osiągnięcia silnej sztucznej inteligencji (AGI). Bez autonomicznej korekty błędów systemy te pozostaną jedynie zaawansowanymi kalkulatorami prawdopodobieństwa, a nie partnerami zdolnymi do kreatywnego rozwiązywania problemów. Jak podsumowuje badacz, prawdziwa inteligencja zawsze znajdzie drogę wyjścia z impasu – obecne modele wciąż tego nie potrafią.
