OpenAI rozszerza infrastrukturę, wdrażając Google Cloud dla ChatGPT
W obliczu nieustającego wzrostu zapotrzebowania na zasoby obliczeniowe, zwłaszcza jednostki GPU, OpenAI podjął kroki mające na celu dywersyfikację swojej infrastruktury chmurowej. Najnowszym partnerem technologicznym firmy, odpowiadającym za obsługę ChatGPT i jego API w kluczowych regionach, będzie Google Cloud.
Według oficjalnych informacji, ChatGPT i powiązane z nim API będą korzystać z infrastruktury Google w takich krajach jak Stany Zjednoczone, Japonia, Holandia, Norwegia i Wielka Brytania. Jest to istotna zmiana w strategii OpenAI, która do tej pory opierała się w dużej mierze na ścisłej współpracy z Microsoftem i jego platformą Azure.
Relacje pomiędzy OpenAI a Microsoftem, choć nadal kluczowe, uległy pewnemu rozluźnieniu już w styczniu tego roku. Wprowadzenie Google jako dostawcy chmury nie oznacza bynajmniej rezygnacji z dotychczasowych partnerów. Microsoft, obok CoreWeave i Oracle, pozostaje ważnym elementem ekosystemu obliczeniowego OpenAI, dostarczającego niezbędną moc do treningu i działania zaawansowanych modeli AI.
Dla Google jest to znaczące zwycięstwo, które umacnia pozycję ich dywizji chmurowej w segmencie AI. Google Cloud, choć notuje dynamiczny wzrost, wciąż rywalizuje o pozycję lidera z takimi gigantami jak Amazon Web Services i właśnie Microsoft Azure. Pozyskanie OpenAI jako klienta stanowi potężny argument w staraniach o dalsze kontrakty w branży sztucznej inteligencji.
Nowa umowa jest kontynuacją szerszej strategii dywersyfikacji infrastruktury, którą OpenAI zapoczątkował już wcześniej, zawierając porozumienia z Oracle oraz CoreWeave. Decyzje te odzwierciedlają rosnącą skalę operacji OpenAI i konieczność zapewnienia redundantnej, globalnej i wydajnej infrastruktury, zdolnej sprostać olbrzymiemu popytowi na generatywne modele AI.
