OpenAI rezerwuje moc obliczeniową AWS za 38 mld dol. Setki tysięcy GPU dla ChatGPT i kolejnych modeli
OpenAI dogaduje się z Amazon Web Services na warunki, które rzadko trafiają na rynek: wieloletnia umowa o wartości 38 mld dol. ma zapewnić firmie dostęp do dedykowanej infrastruktury obliczeniowej pod generatywną AI – od obsługi zapytań ChatGPT, po trening kolejnych generacji modeli i rozwój systemów agentowych. Według zapowiedzi stron, pierwsze klastry już działają, a pełna dostępność mocy ma zostać osiągnięta do końca 2026 roku, z możliwością rozszerzenia w 2027 i później.
Co dokładnie dostarcza AWS
Trzon porozumienia stanowią klastry Amazon EC2 UltraServers wyposażone w setki tysięcy akceleratorów NVIDIA – w tym GB200 i zapowiadane GB300 – oraz możliwość skalowania do dziesiątek milionów rdzeni CPU. AWS deklaruje konfiguracje zoptymalizowane pod niskie opóźnienia i wysoki throughput, co ma kluczowe znaczenie dla dużych systemów generatywnych oraz agentów, których praca wymaga intensywnej i zrównoleglonej wymiany danych.
Warstwa sprzętowa ma spinać trening i inferencję w ramach jednego zaplecza, co ułatwia konsolidację obciążeń oraz podnosi przewidywalność kosztów. To typowy cel w kontraktach o takiej skali: rezerwacja zdolności obliczeniowej z wyprzedzeniem, aby zminimalizować ryzyko wąskich gardeł w dostawach GPU.
Po co OpenAI kolejny hyperscaler
Porozumienie z AWS należy czytać także w kontekście dywersyfikacji. OpenAI pozostaje blisko związane z Microsoftem i Azure, ale rezerwacja mocy w AWS sygnalizuje strategię multi‑cloud – większą odporność operacyjną i elastyczność kosztową przy rosnących potrzebach obliczeniowych.
Szef Amazona Andy Jassy podkreślił doświadczenie AWS w bezpiecznym prowadzeniu wielkoskalowej infrastruktury AI i zapowiedział gotowość platformy do obsługi zarówno inferencji, jak i treningu na dużą skalę. W komunikacie AWS wskazano też, że wybrane modele OpenAI są dostępne przez Amazon Bedrock, zarządzaną usługę udostępniania modeli podstawowych. Wzmianka o „open weight models” – jeśli odzwierciedla faktyczną ofertę – oznaczałaby wyraźną zmianę względem dotychczasowej, przeważnie zamkniętej polityki wydawniczej OpenAI i warto ją obserwować w praktyce.
Harmonogram i techniczne niedopowiedzenia
Wdrożenie już trwa, a cała zarezerwowana pojemność ma być operacyjna do końca 2026 r., z możliwością dalszej ekspansji po tej dacie. Warto jednak pamiętać, że dostawy kolejnych generacji akceleratorów – w tym rodziny GB200 i zapowiadanych GB300 – są uzależnione od łańcuchów dostaw i integracji po stronie centrów danych. Skala deklarowana w umowie to ambitny plan, który będzie weryfikowany dostępnością sprzętu i dojrzałością stosu programowego.
Wpływ na użytkowników i klientów korporacyjnych
Dla użytkowników końcowych i firm korzystających z narzędzi OpenAI oznacza to przede wszystkim większą pojemność i potencjalnie niższe opóźnienia w inferencji. Jednocześnie możliwość zasilania treningu i obciążeń agentowych na tych samych klastrach ułatwi iterację nad kolejnymi wersjami modeli – od systemów do kodowania i analizy danych po zastosowania naukowe.
Z biznesowego punktu widzenia obie firmy pozycjonują się bliżej środka ciężkości rynku infrastruktury AI: łączą rezerwację wielkich mocy, niskie opóźnienia i usługowy model dostępu do modeli. To ruch, który może podnieść poprzeczkę dla konkurencji, ale też zwiększa presję, by klarownie komunikować szczegóły techniczne (np. faktyczną dostępność akceleratorów z rodziny GB300) oraz rzeczywiste parametry SLA dla treningu i inferencji.
Wniosek jest prosty: 38 mld dol. w długoterminowym kontrakcie to nie tylko zakup GPU. To próba zabetonowania przewagi kosztowo‑wydajnościowej w momencie, gdy popyt na moc obliczeniową pod AI rośnie szybciej niż zdolności produkcyjne najbardziej pożądanych układów.
