Microsoft rzuca rękawicę AWS i Google. Nowy chip Maia 200 stawia na efektywność kosztową
W wyścigu o dominację nad infrastrukturą sztucznej inteligencji Microsoft wykonał właśnie znaczący ruch, prezentując Maia 200 – autorski akcelerator zaprojektowany z myślą o zadaniach wnioskowania (ang. inference). Układ, wytwarzany w litografii 3 nm przez TSMC, to technologiczny kolos naszpikowany ponad 140 miliardami tranzystorów i wyposażony w 216 GB szybkiej pamięci. Microsoft nie kryje ambicji: według wewnętrznych testów firmy jest to obecnie najpotężniejszy chip produkowany in-house przez dostawców usług chmurowych.
Przewaga w liczbach, ale z gwiazdką
Strategia Microsoftu opiera się na agresywnym porównaniu z największymi rywalami. Firma twierdzi, że Maia 200 oferuje trzykrotnie wyższą wydajność w formacie FP4 niż Trainium 3 od Amazonu, a w obliczeniach FP8 wyprzedza jednostki TPU v7 Google. Warto jednak zachować pewną dozę sceptycyzmu – dane te pochodzą z wewnętrznych materiałów promocyjnych producenta, a niezależne testy rynkowe (benchmarking), które mogłyby zweryfikować te śmiałe tezy, jeszcze się nie odbyły.
Fundament dla przyszłości GPT
Maia 200 to nie tylko teoretyczna moc obliczeniowa, ale przede wszystkim narzędzie pracujące już „w polu”. Microsoft potwierdził, że chip napędza modele GPT 5.2 od OpenAI oraz usługę Microsoft 365 Copilot. To jasno pokazuje kierunek rozwoju firmy: uniezależnienie się od zewnętrznych dostawców sprzętu tam, gdzie jest to tylko możliwe, i optymalizacja kosztów operacyjnych przy obsłudze najbardziej wymagających systemów AI.
Dostępność i ekosystem
Pierwsze jednostki trafiły już do centrum danych w stanie Iowa, a wkrótce mają zasilić infrastrukturę w Arizonie. Firma udostępnia również programistom dedykowane SDK, co ma ułatwić integrację oprogramowania z nową architekturą. Choć Maia 200 obiecuje o 30 procent lepszy zwrot z inwestycji na każdego dolara wydanego na moc obliczeniową, sukces platformy zależeć będzie od tego, jak sprawnie deweloperzy zaadaptują nowe środowisko w praktycznych zastosowaniach.
