Chmura

Koniec dyktatury chmury? Multiverse Computing wprowadza skompresowane AI do głównego nurtu

Rynek sztucznej inteligencji osiągnął punkt, w którym poleganie wyłącznie na zewnętrznych centrach danych staje się ryzykownym hazardem. Przy wskaźniku niewypłacalności spółek prywatnych sięgającym 9,2% – najwyższym od lat – fundusz Lux Capital otwarcie ostrzega firmy: nie polegajcie na umowach „na gębę”, zabezpieczcie dostęp do mocy obliczeniowej na piśmie. Jednak hiszpański Multiverse Computing proponuje trzecią drogę – całkowitą rezygnację z pośredników na rzecz modeli działających bezpośrednio na urządzeniach użytkownika.

Lokalna inteligencja zamiast serwerowni

Firma, która dotychczas operowała nieco w cieniu największych graczy z Doliny Krzemowej, ogłosiła właśnie szersze otwarcie swoich zasobów. Startup uruchomił portal API oraz aplikację CompactifAI, które prezentują możliwości autorskiej technologii kompresji inspirowanej fizyką kwantową. Kluczowym elementem tej oferty jest model Gilda – algorytm na tyle mały, że teoretycznie może pracować całkowicie offline, bez wysyłania danych do chmury.

To podejście typu „AI on the edge” rozwiązuje dwa fundamentalne problemy: prywatność i ciągłość działania. Dla sektorów krytycznychch, takich jak bankowość czy energetyka, model pracujący lokalnie to gwarancja, że wrażliwe dane nie opuszczą firmowej infrastruktury, a system nie przestanie działać w momencie awarii łącza. Jednak technologia ta ma swoje wymagania – starsze smartfony bez odpowiedniego zapasu pamięci RAM zmuszają system do przełączenia się na tryb chmurowy poprzez inteligentny router „Ash Nazg”. W takim przypadku unikalne atuty prywatności zostają jednak utracone na rzecz wygody.

Biznes szuka oszczędności, a nie tylko parametrów

Choć aplikacja konsumencka pełni rolę demonstratora technologii, prawdziwym celem Multiverse są przedsiębiorstwa. Nowy portal API pozwala deweloperom na bezpośrednie zarządzanie skompresowanymi modelami bez konieczności korzystania z pośredników pokroju AWS Marketplace. Kluczową funkcją jest tu monitoring zużycia zasobów w czasie rzeczywistym, co bezpośrednio odpowiada na palący problem wysokich kosztów eksploatacji dużych modeli językowych (LLM).

Strategia Multiverse wpisuje się w szerszy rynkowy trend optymalizacji, widoczny chociażby w ostatnich ruchach francuskiego Mistral AI. Granica między „małymi” a „dużymi” modelami zaciera się. Najnowsze dzieło Hiszpanów, HyperNova 60B 2602, bazujące na otwartym kodzie OpenAI, dostarcza odpowiedzi szybciej i taniej niż oryginał, zachowując wysoką skuteczność w zadaniach programistycznych i autonomicznych procesach agentowych.

Wycena warta miliardy

Potencjał tkwi nie tylko w biurowcach, ale także w miejscach, gdzie o internecie można tylko pomarzyć – w dronach, satelitach czy izolowanych zakładach przemysłowych. Klientami firmy są już takie giganty jak Bosch czy Bank Centralny Kanady. Rosnąca lista partnerów i dojrzałość technologii sprawiają, że Multiverse Computing staje się łakomym kąskiem dla inwestorów. Po ubiegłorocznej rundzie serii B opiewającej na 215 milionów dolarów, rynek huczy od plotek o kolejnym zastrzyku gotówki w wysokości 500 milionów euro, co wywindowałoby wycenę startupu powyżej 1,5 miliarda euro.

Dla branży to jasny sygnał: przyszłość AI nie musi należeć wyłącznie do gigantycznych, energochłonnych klastrów serwerowych. Czasem mniej znaczy więcej, o ile potrafisz to „mniej” odpowiednio skompresować.