BiznesLLMOpen Source

Reflection pozyskuje 2 miliardy dolarów i chce rzucić wyzwanie zamkniętym laboratoriom AI

Reflection, startup założony zaledwie rok temu przez Mishę Laskina i Ioannisa Antonoglou, byłych naukowców Google DeepMind, właśnie pozyskał 2 miliardy dolarów przy wycenie 8 miliardów dolarów. To oszałamiający skok, biorąc pod uwagę, że zaledwie siedem miesięcy temu wyceniano go na 545 milionów dolarów. Początkowo firma skupiała się na autonomicznych agentach kodujących, ale teraz pozycjonuje się jako otwarta alternatywa dla zamkniętych laboratoriów, takich jak OpenAI i Anthropic, a także jako zachodni odpowiednik chińskich firm AI, takich jak DeepSeek.

Firma została założona w marcu 2024 roku przez Mishę Laskina, który kierował modelowaniem nagród dla projektu Gemini w DeepMind, oraz Ioannisa Antonoglou, współtwórcę AlphaGo. AlphaGo to system AI, który w 2016 roku pokonał mistrza świata w grze Go. Ich doświadczenie w tworzeniu zaawansowanych systemów AI jest kluczowe dla ich oferty: wierzą, że utalentowani specjaliści mogą budować modele na dużą skalę poza murami gigantów technologicznych.

Amerykański sen o otwartej sztucznej inteligencji

Wraz z nową rundą finansowania, Reflection ogłosił, że zrekrutował zespół najlepszych talentów z DeepMind i OpenAI oraz zbudował zaawansowany stos do trenowania AI, który ma być otwarty dla wszystkich. Co najważniejsze, Reflection twierdzi, że zidentyfikował skalowalny model komercyjny, który jest zgodny z ich strategią otwartej inteligencji.

Zespół Reflection liczy obecnie około 60 osób – głównie badaczy i inżynierów AI zajmujących się infrastrukturą, szkoleniem danych i rozwojem algorytmów. Laskin, dyrektor generalny firmy, poinformował, że Reflection zabezpieczył klaster obliczeniowy i ma nadzieję, że w przyszłym roku udostępni model językowy trenowany na „dziesiątkach bilionów tokenów”.

„Zbudowaliśmy coś, co wcześniej uważano za możliwe tylko w najlepszych laboratoriach na świecie: platformę LLM na dużą skalę i platformę uczenia się ze wzmocnieniem, zdolną do trenowania modeli Mixture-of-Experts (MoE) na dużą skalę”, napisał Reflection w poście na X. „Na własne oczy przekonaliśmy się o skuteczności naszego podejścia, gdy zastosowaliśmy je do krytycznej domeny autonomicznego kodowania. Po osiągnięciu tego kamienia milowego, przenosimy teraz te metody do ogólnego rozumowania agentów.”

Architektura MoE kluczem do sukcesu?

MoE odnosi się do specyficznej architektury, która zasila LLM, systemy, które wcześniej tylko duże, zamknięte laboratoria AI były w stanie trenować na dużą skalę. DeepSeek dokonał przełomu, gdy odkrył, jak trenować te modele na dużą skalę w sposób otwarty, a następnie Qwen, Kimi i inne modele w Chinach.

„DeepSeek, Qwen i wszystkie te modele są dla nas pobudką, ponieważ jeśli nic z tym nie zrobimy, globalny standard inteligencji zostanie zbudowany przez kogoś innego”, powiedział Laskin. „Nie zostanie zbudowany przez Amerykę”.

Wsparcie ze strony amerykańskich technologów

Amerykańscy technolodzy w większości z zadowoleniem przyjęli nową misję Reflection. David Sacks, doradca Białego Domu ds. AI i kryptowalut, napisał na X: „Wspaniale jest widzieć więcej amerykańskich modeli AI o otwartym kodzie źródłowym. Znaczący segment globalnego rynku będzie preferował koszty, możliwości dostosowania i kontrolę, jakie oferuje otwarty kod źródłowy. Chcemy, aby Stany Zjednoczone również wygrały w tej kategorii”.

Clem Delangue, współzałożyciel i dyrektor generalny Hugging Face, otwartej i opartej na współpracy platformy dla twórców AI, powiedział o rundzie finansowania: „To rzeczywiście wspaniała wiadomość dla amerykańskiej sztucznej inteligencji o otwartym kodzie źródłowym”. Dodał Delangue: „Teraz wyzwaniem będzie wykazanie wysokiej prędkości udostępniania otwartych modeli AI i zbiorów danych (podobnie jak to, co widzimy z laboratoriów dominujących w sztucznej inteligencji o otwartym kodzie źródłowym)”.

Otwartość na warunkach Reflection

Definicja „otwartości” Reflection wydaje się koncentrować na dostępie, a nie na rozwoju, podobnie jak strategie Meta z Llama lub Mistral. Laskin powiedział, że Reflection udostępni wagi modelu – podstawowe parametry określające, jak działa system AI – do publicznego użytku, zachowując jednocześnie zbiory danych i pełne potoki szkoleniowe jako własność firmy.

„W rzeczywistości najważniejsze są wagi modelu, ponieważ każdy może ich używać i zacząć przy nich majstrować” – powiedział Laskin. „Ze stosu infrastruktury może korzystać tylko wybrana liczba firm”.

Ta równowaga leży również u podstaw modelu biznesowego Reflection. Badacze będą mogli swobodnie korzystać z modeli, powiedział Laskin, ale przychody będą pochodzić od dużych przedsiębiorstw budujących produkty w oparciu o modele Reflection oraz od rządów opracowujących „suwerenne” systemy AI, czyli modele AI opracowywane i kontrolowane przez poszczególne kraje.

„Gdy wejdziesz na to terytorium, gdzie jesteś dużym przedsiębiorstwem, domyślnie chcesz otwartego modelu”, powiedział Laskin. „Chcesz czegoś, co będziesz posiadać. Możesz uruchomić go na swojej infrastrukturze. Możesz kontrolować jego koszty. Możesz dostosować go do różnych obciążeń. Ponieważ płacisz niesamowitą kwotę pieniędzy za AI, chcesz móc ją zoptymalizować tak bardzo, jak to możliwe, i to jest rynek, któremu służymy”.

Reflection nie udostępnił jeszcze swojego pierwszego modelu, który będzie w dużej mierze oparty na tekście, z możliwościami multimodalnymi w przyszłości, według Laskina. Wykorzysta fundusze z tej ostatniej rundy na pozyskanie zasobów obliczeniowych potrzebnych do trenowania nowych modeli, z których pierwszy firma zamierza wypuścić na początku przyszłego roku.

Wśród inwestorów w ostatniej rundzie finansowania Reflection znaleźli się Nvidia, Disruptive, DST, 1789, B Capital, Lightspeed, GIC, Eric Yuan, Eric Schmidt, Citi, Sequoia, CRV i inni.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *