Microsoft i Nvidia ładują 15 mld dolarów w Anthropic. Wycena rośnie do 350 mld
Na rynku dużych modeli językowych trwa przepychanie się gigantów. Microsoft i Nvidia inwestują łącznie 15 mld dol. w Anthropic, twórcę Claude. Z transakcją spina się długoterminowe zobowiązanie Anthropic do zakupów mocy na platformie Azure i sprzętu Nvidii. Według doniesień agencji CNBC, Bloomberg i Reuters wartość firmy skoczyła do około 350 mld dol., niemal dwukrotnie więcej niż we wrześniu. Stawka jest jasna: kontrola nad modelem, chmurą i krzemem.
Co właściwie kupują Microsoft i Nvidia
Pakiet kapitałowy dzieli się na dwie części: do 5 mld dol. od Microsoftu i 10 mld dol. od Nvidii. W ślad za pieniędzmi idą kontrakty. Anthropic deklaruje zakupy mocy obliczeniowej w Azure o wartości 30 mld dol. oraz dodatkową infrastrukturę o mocy do jednego gigawata. To nie tylko zastrzyk gotówki, ale wiązanie klienta ze sprzętem i chmurą dostawców.
Po stronie produktu najbliższym efektem ma być głębsza integracja modeli Claude (m.in. Sonnet 4.5, Opus 4.1 i Haiku 4.5) z ekosystemem Azure. Nvidia jednocześnie zapowiada optymalizacje swoich kolejnych architektur – Grace Blackwell i następczej Vera Rubin – pod potrzeby obliczeń Anthropic. W teorii oznacza to niższy koszt inferencji i szybsze wdrożenia, jeśli tylko strona podażowa – energia i dostępność układów – dotrzyma kroku.
Zamknięty obieg kapitału i ryzyko iluzji przychodów
Układ przypomina pętlę zwrotną: dostawca chmury inwestuje w producenta modelu, który część tych środków oddaje w postaci wieloletniego kontraktu na chmurę; producent GPU robi to samo, inkasując zamówienia na akceleratory. Analitycy z Goldman Sachs i JPMorgan ostrzegają, że taki zamknięty obieg kapitału może sztucznie pompować przychody – zyski raportowane przez dostawców w istocie wynikają z finansowania, które sami pośrednio zapewniają.
Szef Microsoftu Satya Nadella odpowiada, że nie jest to gra o sumie zerowej – rynek ma być na tyle duży, by starczyło miejsca dla wielu dostawców. Krytycy zwracają jednak uwagę, że rosnące wyceny wspierane są coraz częściej przez zobowiązania zakupowe i wzajemne udziały, nie przez stabilne, zewnętrzne popyty w tradycyjnym rozumieniu.
Układ sił w chmurze: OpenAI, AWS i Amazon
W tle zmieniają się też relacje między największymi graczami. Pod koniec października Microsoft poluzował wyłączność na współpracę z OpenAI, co – według doniesień – otworzyło drogę do siedmioletniej umowy OpenAI z Amazon Web Services o wartości 38 mld dol. Równolegle Amazon zwiększył do 8 mld dol. swój łączny wkład w Anthropic, dokładając 4 mld dol. jesienią 2024 r.
Nvidia z kolei – jak podają źródła branżowe – planuje zainwestować 100 mld dol. w budowę ośrodków danych dla OpenAI o mocy 10 GW, opartych na przyszłych układach z rodziny Vera Rubin. Mapę wpływów tworzy gęsta siatka krzyżowych relacji: każdy duży gracz chce mieć ekspozycję na kilku kluczowych wytwórców modeli naraz.
Co z użytkownikami: Claude w Azure i tuning krzemu
Z perspektywy odbiorców biznesowych i deweloperów najważniejsza jest dostępność narzędzi i ich cena. Włączenie Claude do Azure upraszcza zakupy dla firm, które już żyją w ekosystemie Microsoftu, a optymalizacje Nvidii pod konkretne obciążenia Anthropic mogą poprawić stosunek wydajności do kosztu. Jeśli dostawy energii i sprzętu nie staną się wąskim gardłem, ten tandem powinien obniżyć koszt jednostkowy inferencji i przyspieszyć adopcję generatywnego AI.
Anthropic równolegle komunikuje nowości produktowe – m.in. narzędzia dla naukowców i rozwiązania do kodowania „w chmurze” – oraz najszybszy wzrost przychodów w historii spółki. Bez audytowalnych danych trudno jednak oddzielić organiczny popyt od efektu dużych umów ramowych podpisanych z udziałowcami.
Wąskie gardła: energia, prawo autorskie, regulacje
Zobowiązania na poziomie gigawata mocy to przypomnienie, że AI staje się przede wszystkim problemem energetyczno-infrastrukturalnym. Każdy kolejny skok skali zwiększa presję na łańcuch dostaw akceleratorów i na sieci energetyczne centrów danych. Bez taniej, przewidywalnej energii obniżki cen modeli pozostaną na papierze.
Drugi cień to prawo autorskie. Sąd – jak wynika z doniesień – odrzucił jedną z dużych ugód proponowanych w sporze o treści wykorzystane do trenowania modeli, a kwota 1,5 mld dol. może nie zaspokoić roszczeń autorów. Jeśli koszty licencji i odszkodowań wzrosną systemowo, rachunek ekonomiczny generatywnego AI stanie się trudniejszy, a wyceny bardziej wrażliwe.
Co dalej
Nowa runda finansowania Anthropic potwierdza, że rynek LLM wchodzi w fazę konsolidacji wokół trzech filarów: chmury, krzemu i własności modeli. W krótkim terminie użytkownicy zyskują: łatwiejszy dostęp do Claude w Azure i obietnicę tańszej mocy od Nvidii. W długim – najważniejsze będzie, czy przychody nie okażą się pochodną zamkniętych przepływów kapitału, tylko realnego popytu spoza kręgu inwestorów.
Na listę kontrolną dla najbliższych miesięcy trafiają trzy pozycje: tempo komercyjnych wdrożeń poza hyperscalerami, dostępność energii i akceleratorów oraz rozstrzygnięcia prawne wokół danych treningowych. Jeśli te trzy wektory ułożą się po myśli inwestorów, 15 mld dol. może okazać się dopiero zaliczką na większą przebudowę rynku AI.
