LLM

OpenAI: „prosta droga” do AGI wiedzie przez modele GPT

Ryzykowny zakład o naturę inteligencji

W Dolinie Krzemowej narasta napięcie wokół pytania, które do niedawna wydawało się czysto teoretyczne: czy system szkolony głównie na tekście może w pełni zrozumieć fizyczną rzeczywistość? Greg Brockman, współzałożyciel i prezes OpenAI, uważa, że odpowiedź jest twierdząca. W ostatnich wypowiedziach Brockman zadeklarował, że jego firma widzi już bezpośrednią ścieżkę do osiągnięcia AGI (Artificial General Intelligence) za pomocą modeli opartych na architekturze GPT. To odważne postawienie sprawy, które de facto kończy wewnętrzne poszukiwania alternatywnych dróg w OpenAI.

Decyzja ta ma wymierne skutki operacyjne. Firma zdecydowała się ograniczyć zasoby dla projektów takich jak Sora – modelu generatywnego wideo, który miał być fundamentem dla tak zwanych modeli świata. Chociaż Brockman określa Sorę jako imponujące osiągnięcie, klasyfikuje ją jako „inną gałąź drzewa technologicznego”. W obliczu limitowanej mocy obliczeniowej OpenAI wybiera specjalizację. Zamiast budować systemy rozumiejące świat poprzez symulację obrazu, priorytetem staje się dalsze skalowanie logiki i autoregresji tekstowej.

Front oporu: LeCun i Hassabis ostrzegają

Optymizm Brockmana zderza się jednak z twardą krytyką ze strony innych tytanów branży. Yann LeCun, szef działu AI w Meta, od lat argumentuje, że duże modele językowe (LLM) ze swej natury mają „płytkie” rozumienie świata. Według niego brakuje im trwałej pamięci, zdolności do hierarchicznego planowania oraz intuicji fizycznej, której nie da się wyekstrahować z samego tekstu. Podobne stanowisko zajmuje Demis Hassabis z Google DeepMind, podkreślając, że samo skalowanie znanych architektur prawdopodobnie nie wystarczy do przełamania bariery ludzkiej inteligencji.

Spór ten obnaża fundamentalną różnicę w filozofii projektowania AI. Z jednej strony mamy zwolenników ewolucyjnej emergentności – jak Adam Brown z DeepMind, który porównuje przewidywanie tokenów do biologicznej ewolucji, gdzie z prostych reguł powstaje nieopisana złożoność. Z drugiej strony stoją badacze tacy jak Francois Chollet, dla których inteligencja to przede wszystkim umiejętność sprawnego nabywania nowych kompetencji poza domeną treningową, w czym obecne modele wciąż radzą sobie przeciętnie.

Symulacja zamiast tekstu?

Ciekawe światło na tę rywalizację rzucają ruchy byłych inżynierów OpenAI. Jerry Tworek, współtwórca sukcesów w dziedzinie rozumowania maszynowego, sugeruje, że obecny paradygmat głębokiego uczenia w znanej nam formie dociera do ściany. Jego nowa inicjatywa, Core Automation, skupia się na budowaniu symulacji pracy ludzkiej, w których AI uczy się poprzez interakcję i doświadczenie, a nie tylko analizę statystyczną ogromnych zbiorów danych. To podejście bliższe ideom Richarda Suttona i Davida Silvera, którzy wzywają do zwrotu w stronę systemów uczących się na własnych błędach.

Brockman przyznaje, że rezygnacja z równoległego rozwijania Sory na pełną skalę jest wyborem obarczonym ryzykiem. W świecie technologii, gdzie o dominacji decyduje trafność postawionej prognozy, OpenAI stawia na kartę, którą zna najlepiej. Jeśli Brockman ma rację, architektura GPT stanie się fundamentem nowej ery. Jeśli jednak rację mają krytycy, firma może obudzić się w ślepej uliczce, podczas gdy konkurencja opanuje modele świata zdolne do prawdziwego, autonomicznego działania w rzeczywistości.