Hardware

Nvidia prezentuje architekturę Rubin: Nowy kierunek w obliczeniach AI

Podczas Consumer Electronics Show Jensen Huang, prezes Nvidii, oficjalnie zaprezentował architekturę obliczeniową Rubin. Określił ją jako szczytowe osiągnięcie w dziedzinie sprzętu AI. Architektura ta jest już w produkcji, a jej dostępność ma wzrosnąć w drugiej połowie roku.

„Vera Rubin została zaprojektowana, aby sprostać fundamentalnemu wyzwaniu: gwałtownie rosnącej potrzebie mocy obliczeniowej dla AI” – oświadczył Huang. „Dziś mogę potwierdzić, że Vera Rubin jest w pełni produkowana”.

Architektura Rubin, po raz pierwszy zapowiedziana w 2024 roku, jest efektem nieustannego cyklu rozwoju sprzętowego Nvidii, który uczynił firmę najcenniejszą korporacją na świecie. Rubin zastępuje architekturę Blackwell, która z kolei była następcą Hopper i Lovelace.

Kluczowe innowacje i zastosowania

Chipy Rubin zostały już zaadaptowane przez niemal wszystkich głównych dostawców usług chmurowych, w tym w ramach partnerstw Nvidii z Anthropic, OpenAI i Amazon Web Services. Systemy Rubin znajdą zastosowanie również w superkomputerze Blue Lion firmy HPE oraz w nadchodzącym superkomputerze Doudna w Lawrence Berkeley National Lab.

Nazwana na cześć astronomki Very Florence Cooper Rubin, nowa architektura składa się z sześciu oddzielnych układów, zaprojektowanych do współpracy. Centralnym elementem jest procesor graficzny Rubin (GPU), ale architektura rozwiązuje również rosnące wąskie gardła w przechowywaniu danych i interkoneksji dzięki ulepszeniom w systemach Bluefield i NVLink. W skład architektury wchodzi także nowy procesor Vera (CPU), zaprojektowany z myślą o tzw. rozumowaniu agentowym (agentic reasoning).

Pamięć i wydajność

Dion Harris, starszy dyrektor ds. rozwiązań infrastruktury AI w Nvidii, w odniesieniu do korzyści z nowego systemu przechowywania danych, wskazał na rosnące zapotrzebowanie na pamięć podręczną (cache) w nowoczesnych systemach AI.

„W miarę wprowadzania nowych typów obciążeń, takich jak agentowe AI czy długoterminowe zadania, pojawia się znaczne obciążenie i zapotrzebowanie na pamięć KV cache” – wyjaśnił Harris, odnosząc się do systemu pamięci używanego przez modele AI do kondensowania danych wejściowych. „Wprowadziliśmy zatem nowy poziom przechowywania danych, który łączy się zewnętrznie z urządzeniem obliczeniowym, co pozwala znacznie efektywniej skalować pulę pamięci masowej”.

Nowa architektura znacząco zwiększa także szybkość i efektywność energetyczną. Według testów Nvidii, architektura Rubin będzie działać trzy i pół razy szybciej od poprzedniej architektury Blackwell w zadaniach szkolenia modeli i pięć razy szybciej w zadaniach wnioskowania (inference), osiągając do 50 petaflopów. Ponadto nowa platforma ma oferować ośmiokrotnie większą moc obliczeniową wnioskowania na wat.

Kontekst rynkowy

Wprowadzenie nowych możliwości Rubina następuje w warunkach intensywnej konkurencji w budowie infrastruktury AI, gdzie zarówno laboratoria AI, jak i dostawcy chmury walczą o chipy Nvidii oraz obiekty niezbędne do ich zasilania. W październiku 2025 roku Huang oszacował, że w ciągu najbliższych pięciu lat na infrastrukturę AI zostanie wydanych od 3 do 4 bilionów dolarów.