Była szefowa badań AI w Cohere stawia na adaptację zamiast wyścigu skalowania
Sara Hooker, która do niedawna kierowała badaniami AI w Cohere i wcześniej pracowała w Google Brain, rozpoczęła Problemprojekt, który celowo odwraca uwagę od dominującej strategii w branży: skalowania. Jej firma, Adaption Labs, ma budować systemy potrafiące uczyć się z rzeczywistych doświadczeń i adaptować w czasie rzeczywistym — rozwiązanie, które jej zdaniem jest bardziej obiecujące i efektywne kosztowo niż masywne powiększanie modeli językowych.
Problem ze skalowaniem
W ostatnich latach rozwój AI był napędzany prostą formułą: więcej danych, więcej parametrów, więcej mocy obliczeniowej. Najwięksi gracze inwestują w centra danych o skali porównywalnej z małymi miastami, licząc, że wzrost zasobów obliczeniowych przełoży się na kolejne skoki w wydajności. Ale coraz więcej głosów w środowisku badawczym wskazuje, że ten kurs może napotykać na malejące korzyści.
Badania akademickie oraz obserwacje z praktyki sugerują, że zwiększanie skali nie daje już takich samych przyrostów, jak wcześniej. To prowadzi do pytań o efektywność ekonomiczną i środowiskową tej drogi oraz o to, kto ostatecznie kontroluje i korzysta z tych wielkoskalowych modeli.
Adaptacja jako alternatywa
Hooker nazywa adaptację 'sercem uczenia się’. W praktyce oznacza to, że system powinien potrafić modyfikować swoje zachowanie na podstawie rzeczywistych interakcji — analogicznie do tego, jak człowiek uczy się unikać zahaczania o stół po tym, jak raz się o niego uderzy. Dotychczasowe podejścia do uczenia przez wzmacnianie (RL) pozwalają modelom uczyć się w kontrolowanych symulacjach, ale rzadko przekładają się na zdolność do efektywnego uczenia się w produkcji, w czasie rzeczywistym.
Adaption Labs deklaruje pracę nad metodami, które umożliwią systemom ciągłe uczenie się z doświadczeń i robienie tego w sposób wydajny. Hooker nie ujawnia technicznych szczegółów rozwiązania ani tego, czy opiera się ono na standardowych dużych modelach językowych, co utrudnia niezależną ocenę potencjału projektu.
Ekonomia dostosowywania
Na rynku istnieje już popyt na dostosowywanie modeli do potrzeb klientów, lecz usługi te bywają kosztowne i dostępne głównie dla największych klientów. Wspomniane w doniesieniach próg kosztowy OpenAI — rzędy dziesiątek milionów dolarów dla usług konsultingowych przy dostrajaniu — pokazuje, że proces personalizacji jest obecnie ekskluzywny. Hooker sugeruje, że wydajne uczenie adaptacyjne mogłoby zmienić te relacje sił, obniżając barierę wejścia dla przedsiębiorstw i indywidualnych użytkowników.
Jeżeli adaptacja rzeczywiście okaże się mniej zasobożerna i równie lub bardziej skuteczna niż dalsze skalowanie, konsekwencje będą dalekosiężne: zmieni się układ sił w branży, a także ekonomika inwestycji w infrastrukturę obliczeniową.
Skeptycyzm w środowisku badawczym
Ruch Adaption Labs wpisuje się w szerszy trend rosnącej krytyki wobec bezwarunkowego powiększania modeli. Wybitni badacze, w tym laureat Turing Award Richard Sutton, argumentują, że obecne podejścia do dużych modeli językowych nie odpowiadają za uczenie się z doświadczenia w sensie, jaki obserwujemy u organizmów żywych. Nawet niektórzy wewnętrzni krytycy, którzy wcześniej optowali za metodami wzmacniania, wyrażają wątpliwości co do ich długoterminowego skalowania.
Z drugiej strony, przemysł nie stoi w miejscu: w 2025 roku pojawiły się rozwijane wersje tzw. reasoning models, które dodają etap kosztownego, ale skutecznego rozumowania przed wygenerowaniem odpowiedzi. Firmy takie jak OpenAI czy Meta inwestują w duże eksperymenty RL, niektóre kosztujące miliony dolarów, próbując pokazać, że te podejścia nadal mają rosnący potencjał.
Adaption Labs: ambicje i niepewności
Adaption Labs, współzałożone przez Hooker i Sudipa Roya, miało prowadzić rozmowy na temat rundy seed rzędu 20–40 milionów dolarów, która, według rozmówców zapoznanych z materiałami inwestorskimi, została finalizowana. Hooker nie skomentowała publicznie szczegółów finansowania. Firma już szuka talentów inżynieryjnych, operacyjnych i designerskich oraz planuje otwarcie biura w San Francisco przy jednoczesnym zatrudnianiu globalnie — kontynuując podejście Hooker do poszukiwania talentów poza tradycyjnymi ośrodkami technologicznymi.
Hooker ma też doświadczenie w pracy nad kompaktowymi modelami dostosowanymi do zastosowań przedsiębiorstw — według niej mniejsze, bardziej specjalizowane systemy często przewyższają większe architektury w zadaniach takich jak programowanie, matematyka czy rozumowanie. To przekonanie napędza wizję Adaption Labs: zamiast konkurować o surową moc obliczeniową, postawić na architektury i algorytmy, które uczą się na bieżąco.
Co można zweryfikować, a co pozostaje hipotezą
W tej chwili kluczowe elementy strategii Adaption Labs pozostają nieujawnione, co utrudnia ocenę, czy obiecane oszczędności i przewagi jakościowe są realne. Historia pokazuje, że przełomy w metodologii potrafią zmienić trajektorię branży, ale rzadko pojawiają się bez istotnych dowodów empirycznych udostępnionych społeczności naukowej.
Jeżeli Hooker i jej zespół zdołają wykazać, że ciągłe uczenie się w środowisku produkcyjnym może być znacznie tańsze i efektywniejsze niż dalsze skalowanie, będzie to argument za dywersyfikacją podejść w badaniach i inwestycjach AI. Jeśli się nie uda, przemysł prawdopodobnie wróci do optymalizacji istniejących, kosztownych ścieżek rozwoju.
Werdykt
Adaption Labs stawia ryzykowną, ale logiczną tezę: zamiast dorzucać kolejne miliardy do centrów danych, lepiej nauczyć modele jak lepiej uczyć się same. To podejście odpowiada na realne krytyki wobec skalowania, ale faktyczna skuteczność i opłacalność tej strategii muszą dopiero zostać dowiedzione. W przeciwieństwie do projektów reklamujących się rozmiarami, tutaj kluczowa będzie transparentność metod i rezultaty w zastosowaniach produkcyjnych.
