Nvidia dominuje w benchmarkach AI: Nowe chipy Blackwell wyznaczają standardy wydajności
Nvidia konsekwentnie rozszerza swoją obecność w centrach danych na całym świecie, wprowadzając swoje innowacyjne chipy AI do tzw. „fabryk AI”. Firma ogłosiła właśnie, że układy Blackwell osiągają wiodące wyniki w branżowych benchmarkach, co przyspiesza rozwój i wdrażanie aplikacji AI nowej generacji.
W najnowszej, dwunastej już rundzie testów MLPerf Training, platforma Nvidia AI uzyskała najwyższą wydajność w skalowalnych scenariuszach, dominując we wszystkich kategoriach. Szczególny sukces odnotowano w wyzwaniu pre-treningu rozległego modelu językowego (LLM) Llama 3.1 405B, gdzie Nvidia nie miała sobie równych.
Blackwell architektura przyszłości AI
Platforma Nvidia okazała się jedyną, która zgłosiła wyniki we wszystkich benchmarkach MLPerf Training v5.0, co świadczy o jej wyjątkowej wszechstronności w obsłudze różnorodnych zadań AI, od LLM po systemy rekomendacji, modele multimodalne, detekcję obiektów i grafowe sieci neuronowe. Do testów wykorzystano dwa superkomputery AI oparte na platformie Nvidia Blackwell: Tyche, zbudowany z systemów Nvidia GB200 NVL72, oraz Nyx, bazujący na systemach Nvidia DGX B200.
Warto podkreślić współpracę Nvidii z firmami CoreWeave i IBM, która zaowocowała prezentacją wyników GB200 NVL72, wykorzystując łącznie 2496 procesorów graficznych Blackwell i 1248 procesorów centralnych Nvidia Grace. W nowym benchmarku pre-treningu Llama 3.1 405B, Blackwell osiągnął 2,2-krotnie wyższą wydajność w porównaniu z architekturą poprzedniej generacji w tej samej skali.
Skokowy wzrost wydajności
Systemy Nvidia DGX B200, wyposażone w osiem procesorów graficznych Blackwell, oferują 2,5-krotnie wyższą wydajność w benchmarku fine-tuning Llama 2 70B LoRA w porównaniu z poprzednią generacją. Te imponujące skoki wydajności są efektem zaawansowanej architektury Blackwell, która obejmuje m.in. wysokiej gęstości, chłodzone cieczą szafy, 13,4 TB spójnej pamięci na szafę, piątą generację technologii Nvidia NVLink i Nvidia NVLink Switch, oraz sieć Nvidia Quantum-2 InfiniBand.
Innowacje w oprogramowaniu Nvidia NeMo Framework podnoszą poprzeczkę dla treningu multimodalnych LLM nowej generacji, co ma kluczowe znaczenie dla wprowadzania na rynek aplikacji AI opartych na agentach (agentic AI). Te aplikacje, zasilane przez agentic AI, będą w przyszłości działać w fabrykach AI, napędzając gospodarkę opartą na sztucznej inteligencji. Będą one generować cenne informacje, które znajdą zastosowanie w niemal każdej branży i dziedzinie akademickiej.
Kompleksowa platforma AI
Platforma Nvidia dla centrów danych obejmuje procesory graficzne, procesory centralne, szybkie połączenia i sieć, a także bogaty zestaw oprogramowania, takiego jak biblioteki Nvidia CUDA-X, NeMo Framework, Nvidia TensorRT-LLM i Nvidia Dynamo. Ta precyzyjnie dostrojona kombinacja sprzętu i oprogramowania umożliwia organizacjom szybsze trenowanie i wdrażanie modeli, co skraca czas potrzebny na osiągnięcie korzyści biznesowych.
Dave Salvator, dyrektor ds. przyspieszonego przetwarzania w Nvidia, podkreśla, że Nvidia przeszła długą drogę od producenta chipów do dostawcy kompleksowej infrastruktury AI. Obejmuje to nie tylko układy graficzne, ale także serwery DGX, całe szafy i centra danych, tworząc „fabryki AI”.
Współpraca i transparentność
W najnowszej rundzie MLPerf wzięło udział wielu partnerów Nvidii, w tym ASUS, Cisco, Giga Computing, Lambda, Lenovo Quanta Cloud Technology i Supermicro. Pierwsze zgłoszenia MLPerf Training z wykorzystaniem GB200 zostały opracowane przez MLCommons Association, zrzeszające ponad 125 członków. Czas treningu jest kluczowym wskaźnikiem, który zapewnia, że proces treningowy tworzy model spełniający wymagany poziom dokładności. Standaryzowane zasady benchmarków gwarantują porównywalność wyników. Wyniki są recenzowane przed publikacją, co zapewnia transparentność i wiarygodność.
