Nvidia przeznacza miliardy na rekordowy model Nemotron 3 Super. Czy powstrzyma dominację Chin?
Architektura, która nie bierze jeńców
Nvidia właśnie wypuściła Nemotron 3 Super, model o wadze 120 miliardów parametrów, zaprojektowany z myślą o efektywnym zasilaniu autonomicznych agentów AI bez drenowania budżetu na infrastrukturę chmurową.
Problem z systemami wieloagentowymi jest prozaiczny – generują one potężną liczbę tokenów, a każde wywołanie narzędzia czy krok rozumowania drastycznie podnosi koszty operacyjne. Nemotron ma temu zapobiec dzięki hybrydowej architekturze Mamba-Transformer MoE. Model aktywuje tylko 12 miliardów z całkowitych 120 miliardów parametrów, co pozwala mu na niebywałą szybkość przy zachowaniu głębi rozumowania.
Nemotron 3 Super oferuje milion tokenów okna kontekstowego. To wystarczy, by w pamięci operacyjnej zmieścić całe repozytoria kodu lub niemal 750 tysięcy słów tekstu bez utraty spójności.
Natywne 4-bity: Inżynieria precyzji
Zamiast trenować model w pełnej precyzji, a potem go „odchudzać”, Nvidia przeprowadziła proces natywnie w formacie NVFP4. To kluczowa zmiana. System nauczył się operować w arytmetyce 4-bitowej od pierwszego kroku treningowego, co zapobiega erozji inteligencji, która zazwyczaj towarzyszy kwantyzacji.
Efekt? Model jest 2,2 raza szybszy niż GPT-OSS 120B i aż 7,5 raza szybszy niż flagowiec Alibaby – Qwen 3.5-122B.
To nie są tylko puste benchmarki. Testy wykazują, że Nemotron bezbłędnie wyłapuje błędy logiczne w niejasnych promptach i radzi sobie z matematyką tam, gdzie inne modele open-source zaczynają halucynować.
Strategia za 26 miliardów dolarów
Wydanie modelu to tylko wierzchołek góry lodowej. Dokumenty finansowe Nvidii ujawniają plan wydania 26 miliardów dolarów w ciągu pięciu lat na budowę otwartych modeli klasy frontier. To już nie jest projekt poboczny – to otwarta wojna o wpływy.
Stany Zjednoczone przegrywają wyścig w sektorze open-source.
Udział chińskich modeli w globalnym rynku wzrósł z zaledwie 1,2% w 2024 roku do 30% pod koniec 2025 roku. Chińskie modele, takie jak Qwen czy DeepSeek, stały się domyślnym wyborem dla światowych startupów, a nawet amerykańskich korporacji typu Airbnb. Nvidia wie, że jeśli pozwoli na dominację chińskiego oprogramowania, wkrótce straci kontrolę nad sprzętem.
Ucieczka przed widmem Huawei
Ryzyko jest egzystencjalne: jeśli chińskie modele open-source zostaną w pełni zoptymalizowane pod chipy Huawei, globalny ekosystem AI może po prostu przestać potrzebować technologii z Santa Clara.
- Dominacja infrastruktury: Nvidia chce, aby standardem były modele zoptymalizowane pod ich autorskie instrukcje CUDA.
- Adopcja rynkowa: Perplexity, Palantir i Siemens już wdrażają Nemotrona w swoje procesy produkcyjne.
- Otwarty ekosystem: Cały proces treningowy, w tym 40 milionów próbek post-treningowych, trafił na Hugging Face.
Nvidia nie buduje modeli z dobrego serca. Buduje je, aby stworzyć cyfrowy mur obronny wokół swoich procesorów graficznych. W świecie, gdzie Meta zaczyna wycofywać się z absolutnej otwartości swoich projektów, Jensen Huang staje się nieoczekiwanym obrońcą otwartego kodu – pod warunkiem, że ten kod będzie pracował na jego krzemie.
