HardwareR & D

AMD stawia na nowe układy Instinct MI350 w walce z dominacją Nvidii

AMD wkracza na rynek układów AI z nową serią akceleratorów Instinct MI350, które mają na celu odebrać część rynku Nvidii. Nowe układy, oparte na architekturze CDNA 4 i wykonane w procesie 3-nanometrowym przez TSMC, zawierają do 185 miliardów tranzystorów i oferują zaawansowane funkcje, takie jak obsługa formatów danych FP4 i FP6.

Główne atuty nowych układów to imponująca pojemność pamięci – 288 GB HBM3E – oraz zwiększona wydajność w niektórych zadaniach AI. MI350X zużywa 1000 watów i jest chłodzony powietrzem, podczas gdy MI355X, który może być chłodzony zarówno powietrzem, jak i cieczą, pobiera 1400 watów. Według SemiAnalysis, MI355X może oferować ponad 10% lepszą wydajność w rzeczywistych zastosowaniach w porównaniu do MI350X.

Wydajność i koszty

W porównaniu do ofert Nvidii, MI355X prezentuje się obiecująco pod względem całkowitego kosztu posiadania (TCO) dla pewnych zadań AI, szczególnie przy uruchomianiu mniejszych i średnich modeli językowych. AMD deklaruje 33% przewagę w TCO dla systemów samodzielnie obsługiwanych. MI355X oferuje 1,6 razy więcej pamięci i 2,2 razy lepszą wydajność FP6 niż Nvidia B200. Niemniej jednak, Nvidia B300 jest 1,3 razy szybszy w obliczeniach FP4.

Niestety, gdy porównamy MI355X do topowego systemu Nvidii GB200 NVL72, AMD wyraźnie odstaje przy bardzo dużych modelach lub trenowaniu nowych modeli. Głównym powodem są ograniczenia w komunikacji między chipami – tylko 8 układów MI355X może komunikować się pełną szybkością, podczas gdy Nvidia pozwala na to aż 72 chipom. W efekcie, złożone zadania wymagające częstej komunikacji mogą działać co najmniej 18 razy wolniej na konfiguracji AMD.

Oprogramowanie i plany na przyszłość

Oprogramowanie pozostaje słabym punktem AMD w starciu z Nvidią. Chociaż ROCm w wersji 7 przyniósł średnio 3,5-krotny wzrost wydajności aplikacji AI, to nadal brakuje mu dojrzałości. AMD pracuje nad rozszerzeniem swojego ekosystemu „neocloud” oraz nad poprawą kompatybilności oprogramowania. Firma planuje wprowadzenie serii MI400 w drugiej połowie 2026 roku, która ma być prawdziwym rozwiązaniem na skalę szafy i konkurować z systemem VR200 NVL144 Nvidii.

Zainteresowanie nowymi układami jest duże wśród głównych dostawców chmury obliczeniowej i laboratoriów badawczych AI. AWS planuje większe zamówienie, Meta zaczyna trenować modele na sprzęcie AMD, a Oracle przygotowuje się do wdrożenia 30 000 akceleratorów MI355X. Dostępność MI350 na szeroką skalę jest spodziewana w trzecim kwartale 2025 roku.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *