Miliardy dolarów na moc obliczeniową: Anthropic inwestuje w jednostki TPU od Google i Broadcom
Strategiczna dywersyfikacja sprzętowa coraz ważniejsza
Rynek sztucznej inteligencji wchodzi w nową fazę, w której dostęp do odpowiednich podzespołów staje się ważniejszy niż same algorytmy. Anthropic sfinalizował właśnie porozumienie z Google i Broadcom, które zakłada budowę potężnej infrastruktury opartej na jednostkach TPU (Tensor Processing Units). Nowe centra danych, których uruchomienie zaplanowano na 2027 rok, zostaną w przeważającej mierze zlokalizowane na terenie Stanów Zjednoczonych. Ruch ten podkreśla rosnącą potrzebę uniezależnienia się od dominacji jednego dostawcy w sektorze akceleratorów AI.
Imponująca monetyzacja i ambicje rynkowe
Za decyzją o tak szerokiej rozbudowie zaplecza technicznego stoją twarde dane finansowe. Anthropic notuje bezprecedensowy wzrost: po zamknięciu 2025 roku z wynikiem 9 miliardów dolarów, obecny roczny wskaźnik przychodów (ARR) przekroczył już barierę 30 miliardów dolarów. Skalę sukcesu w segmencie B2B najlepiej obrazuje fakt, że liczba klientów generujących ponad milion dolarów przychodu rocznie wzrosła dwukrotnie od lutego, przekraczając tysiąc podmiotów. To właśnie ci gracze napędzają zapotrzebowanie na coraz bardziej zaawansowane wersje modelu Claude.
Claude: model obecny wszędzie, ale ściśle związany z Amazonem
Strategia Anthropic wyróżnia się na tle konkurencji unikalnym podejściem do dostępności. Claude jest obecnie jedynym z czołowej trójki dużych modeli językowych, który funkcjonuje w ekosystemach wszystkich gigantów chmurowych: AWS, Google Cloud oraz Microsoft Azure. Firma nie stawia wszystkiego na jedną kartę, szkoląc swoje systemy przy użyciu hybrydowego miksu sprzętowego: od autorskich układów Amazon Trainium, przez Google TPU, aż po rynkowy standard w postaci procesorów graficznych Nvidii. Mimo zacieśniania więzi z Google, zarząd Anthropic jasno deklaruje: to Amazon pozostaje ich nadrzędnym partnerem strategicznym w chmurze.
