Google Cloud udostępnia układy Blackwell w modelu współdzielonym: Przełom w dostępności mocy obliczeniowej
Demokratyzacja architektury Blackwell
Rynek chmurowych rozwiązań dla sztucznej inteligencji wchodzi w nową fazę, w której surowa moc obliczeniowa ustępuje miejsca elastyczności zarządzania zasobami. Google Cloud ogłosiło rozszerzenie swojej linii maszyn wirtualnych G4, opartych na procesorach graficznych NVIDIA RTX PRO 6000 Blackwell Server Edition. Kluczową nowością jest wprowadzenie tak zwanych jednostek ułamkowych (z ang. fractional VMs), które pozwalają na wynajem 1/2, 1/4 lub nawet 1/8 pojedynczego układu GPU.
To strategiczne posunięcie adresuje rosnące zapotrzebowanie na optymalizację kosztów w projektach, które nie wymagają pełnej mocy flagowych jednostek Nvidii. Zamiast sztywnych konfiguracji obejmujących od 1 do 8 układów, deweloperzy mogą teraz precyzyjnie dopasować infrastrukturę do zadań takich jak inferencja modeli o parametrach od 30 do 100 miliardów, symulacje, rendering czy obsługa zdalnych pulpitów. Wśród pierwszych beneficjentów nowych rozwiązań znalazły się tak różnorodne podmioty jak General Motors, ElevenLabs czy Schrödinger.
Infrastruktura zorientowana na systemy agentowe
Inicjatywa Google wykracza poza proste udostępnianie sprzętu. Koncepcja AI Hypercomputer przekształca się w kompletny stos komercyjny, integrujący NVIDIA Dynamo z GKE Inference Gateway oraz rozszerzający Vertex AI o domeny A4X oparte na systemach GB200 NVL72. Dla inżynierów kluczowe są parametry techniczne: Google Kubernetes Engine (GKE) w ramach serii G4 oferuje do 384 vCPU, 1,440 GB pamięci operacyjnej oraz przepustowość sieciową rzędu 400 Gbps. Taka specyfikacja uzasadnia dzielenie fizycznego sprzętu na mniejsze, wirtualne jednostki bez drastycznego spadku wydajności.
Istotnym ułatwieniem w zarządzaniu deficytowymi zasobami są nowe opcje harmonogramowania. Funkcja Flex Start wprowadzona do linii G4 umożliwia rezerwację mocy GPU przy znacznie mniejszych zobowiązaniach długoterminowych niż dotychczas. Jest to odpowiedź na krytykę dotyczącą wysokiego progu wejścia w najnowocześniejsze technologie akceleracyjne.
W stronę architektury Rubin
Choć dzisiejsze ogłoszenia skupiają się na rodzinie Blackwell, Google Cloud kreśli już mapę drogową na drugą połowę 2026 roku. Firma planuje jako jedna z pierwszych wdrożyć systemy NVIDIA Vera Rubin NVL72. Architektura ta, łącząca 72 układy GPU Rubin i 36 procesorów Vera w jednej szafie rackowej, ma stać się fundamentem dla nowej generacji „agentowej AI” (z ang. agentic AI), wymagającej ekstremalnie niskich opóźnień i ogromnej przepustowości w klastrach treningowych.
Współpraca gigantów jest sygnałem dla rynku: Google chce być nie tylko dostawcą układów scalonych, ale architektem kompletnego środowiska dla startupów i sektora publicznego. Programy akceleracyjne dla wybranych podmiotów mają przygotować grunt pod masową adopcję platformy Rubin, podczas gdy dzisiejsze „wycinki” Blackwella służą do bieżącej optymalizacji obciążeń AI.
