Google rzuca wyzwanie Nvidii: nadchodzi krzemowa wojna o dominację w inferencji
Era „bruteforce’owania” modeli AI dobiega końca. Google, zamiast konkurować z Nvidią na czystą moc obliczeniową służącą do trenowania gigantycznych modeli, przesuwa „ogień artyleryjski” tam, gdzie generuje się realne zyski: w stronę inferencji.
Koniec uniwersalnego krzemu
Przez lata branża wierzyła, że jeden potężny chip może obsłużyć wszystko. Jeff Dean, główny naukowiec w Google, rozwiewa te złudzenia. Gdy skala operacji AI rośnie do poziomu miliardów zapytań dziennie, generyczne rozwiązania stają się nieefektywne kosztowo. Google potrzebuje skalpela, a nie młota pneumatycznego.
Inferencja to moment prawdy dla każdego modelu AI – etap, w którym AI faktycznie pracuje, odpowiadając na zapytania użytkowników. To tutaj przepalane są teraz największe budżety operacyjne.
Sojusz z Marvell i nowa architektura
Partnerstwo z Marvell Technology to jasny sygnał: Google nie chce już tylko projektować układów TPU (Tensor Processing Units) do użytku wewnętrznego. Gigant z Mountain View celuje w stworzenie ekosystemu, który rzuci wyzwanie architekturze Hopper i Blackwell od Nvidii. Strategia jest ryzykowna, ale Google ma asy w rękawie, których brakuje Jensenowi Huangowi: własne modele i gigantyczny strumień przychodów z wyszukiwarki.
Meta już teraz pompuje miliardy dolarów w infrastrukturę TPU Google, co potwierdza Santosh Janardhan, wskazując na drastyczne skoki wydajności w zadaniach inferencyjnych.
Rozbijanie złotych klatek
Google wykonuje nagły zwrot w stronę otwartości, co jeszcze dwa lata temu wydawało się nie do pomyślenia. Udostępnienie TPU dla zewnętrznych narzędzi takich jak PyTorch to demontaż własnego, zamkniętego ogrodu programistycznego. To ruch czysto pragmatyczny – aby wygrać z Nvidią, Google musi stać się domyślnym wyborem dla deweloperów, a nie tylko luksusową ciekawostką dla wybranych.
Najciekawszy jest jednak model dystrybucji. Według doniesień Bloomberga, Google testuje model „on-premises”.
Oznacza to, że tacy gracze jak Anthropic mogliby stawiać serwery z chipami Google bezpośrednio we własnych centrach danych, omijając narzuty chmurowe. To bezpośredni atak na model biznesowy Nvidii, która sprzedaje pudełkowe rozwiązania każdemu, kto ma odpowiednio gruby portfel.
Cień niedoborów i elitaryzm krzemowy
- Anthropic: Rozszerzył dostęp do TPU do poziomu 1 miliona chipów.
- Broadcom: Kluczowy partner Google, planujący moce na poziomie 3,5 GW do 2027 roku.
- Nvidia: Wciąż lider w trenowaniu modeli, twierdzący, że TPU nie dorównują im w najbardziej złożonych aplikacjach.
Mimo optymizmu, rzeczywistość jest brutalna: chipów po prostu brakuje. Demis Hassabis z DeepMind przyznaje wprost, że obecne zasoby są kierowane do „bardziej elitarnych zespołów”. Mniejsze startupy zostają z niczym, co tworzy nową, cyfrową arystokrację, gdzie dostęp do konkretnego krzemu determinuje, czy dany model w ogóle powstanie.
Czy Google zdoła przełamać hegemonię Nvidii? Szanse są większe niż kiedykolwiek, bo walka przeniosła się z etapu „kto zbuduje większy model” na etap „kogo stać na jego utrzymanie”.
