Huawei rzuca wyzwanie NVIDII: ekosystem AI CloudMatrix i jego wpływ na rynek
W obliczu rosnącego zapotrzebowania na zaawansowane możliwości przetwarzania danych na potrzeby AI, Huawei zaprezentowało CloudMatrix 384 – nowatorski klaster do uczenia maszynowego. System ten, wykorzystujący procesory Ascend 910C połączone łączami optycznymi, ma na celu nie tylko usprawnienie, lecz także zrewolucjonizowanie procesu uczenia AI. Rozproszona architektura CloudMatrix 384, pomimo mniejszej indywidualnej mocy chipów Ascend w porównaniu do konkurencji, skutecznie przewyższa tradycyjne konfiguracje oparte na GPU, szczególnie pod kątem efektywności wykorzystania zasobów i czasu przetwarzania na chipie.
Huawei kontra NVIDIA: strategiczna reorientacja
Wprowadzenie nowego rozwiązania pozycjonuje Huawei jako znaczącego gracza na rynku, zdolnego podważyć ugruntowaną pozycję NVIDII, dominującej w obszarze sprzętu i oprogramowania AI. Jest to szczególnie istotne w kontekście utrzymujących się sankcji wobec chińskiego giganta technologicznego.
Jednak sukces tej strategii będzie zależał od zdolności inżynierów danych do adaptacji. Wymaga to przeorientowania przepływów pracy na frameworki wspierające procesory Ascend, takie jak MindSpore, rozwijany przez Huawei. Firmy polegające dotąd na PyTorchu czy TensorFlow będą musiały zmierzyć się z koniecznością konwersji istniejących modeli lub ich ponownego trenowania przy użyciu MindSpore API, co oznacza, że stopień inżynierii wstecznej będzie spory, zważywszy na inne zasady używania składni czy procesów treningowych w MindSpore.
MindSpore – nowy standard w ekosystemie Huawei
Ekosystem NVIDII w dużej mierze opiera się na popularnych frameworkach, takich jak PyTorch i TensorFlow, które są zoptymalizowane pod kątem architektury CUDA. Huawei idzie własną drogą, promując MindSpore jako optymalne środowisko dla swoich procesorów Ascend. Przejście z dotychczasowych frameworków na MindSpore wiąże się z wyzwaniami, takimi jak różnice w składni, potokach treningowych i wywołaniach funkcji. Inżynierowie będą musieli szczegółowo dopasować kod, aby wiernie odwzorować wyniki uzyskane w innych środowiskach, uwzględniając na przykład odmienne tryby uzupełniania w warstwach konwolucyjnych i agregujących czy domyślne metody inicjalizacji wag.
Wdrażanie modeli z MindIR i CANN
MindSpore wykorzystuje MindIR (MindSpore Intermediate Representation), odpowiednik Nvidia NIM, do wdrażania modeli. Po zakończeniu treningu model jest eksportowany do formatu MindIR przy użyciu narzędzia mindspore.export. Etap wnioskowania obejmuje załadowanie wyeksportowanego modelu MindIR i uruchomienie predykcji za pomocą interfejsów API MindSpore przeznaczonych dla chipów Ascend. MindSpore wyraźniej, niż PyTorch czy TensorFlow rozdziela logikę treningu od logiki wnioskowania, co wymaga dostosowania preprocessingu do danych treningowych i optymalizacji statycznego wykonywania grafów. Dodatkowe narzędzia, takie jak MindSpore Lite czy Ascend Model Zoo, są rekomendowane do precyzyjnego dostrajania pod kątem specyficznych wymagań sprzętowych.
Kluczowym elementem ekosystemu Huawei jest również CANN (Compute Architecture for Neural Networks) – zestaw narzędzi i bibliotek, pełniący rolę analogiczną do NVIDII CUDA. CANN oferuje narzędzia do profilowania i debugowania, które są niezbędne do monitorowania i optymalizacji wydajności modeli na sprzęcie Ascend.
Elastyczność wykonania: GRAPH_MODE czy PYNATIVE_MODE?
MindSpore oferuje dwa tryby wykonania, które odpowiadają na różne potrzeby w cyklu życia projektu: GRAPH_MODE i PYNATIVE_MODE. GRAPH_MODE kompiluje graf obliczeniowy przed wykonaniem, co przekłada się na szybsze działanie i lepszą optymalizację, idealną dla wdrożonych modeli. PYNATIVE_MODE natomiast, poprzez natychmiastowe wykonywanie operacji, znacząco ułatwia proces debugowania i jest preferowany we wczesnych etapach rozwoju modelu. To pozwala deweloperom na elastyczne przełączanie się między trybami, równoważąc zapotrzebowanie na elastyczność w fazie rozwoju z optymalną wydajnością wdrożeniową.
ModelArts: zintegrowane środowisko Huawei
Ekosystem Huawei dopełnia ModelArts, oparta na chmurze platforma do rozwoju i wdrażania AI, ściśle zintegrowana ze sprzętem Ascend i frameworkiem MindSpore. Porównywalna z AWS SageMaker czy Google Vertex AI, ModelArts jest zoptymalizowana pod kątem procesorów Huawei, oferując pełny zakres usług, od etykietowania danych i preprocessingu, przez trening, po wdrażanie i monitorowanie modeli. Wszystkie etapy są dostępne poprzez API lub interfejs webowy.
Perspektywy i wyzwania
Adaptacja do MindSpore i CANN wiąże się z koniecznością inwestycji w szkolenia i czas, zwłaszcza dla zespołów przyzwyczajonych do ekosystemu NVIDII. Nowe procesy obejmują naukę obsługi kompilacji i optymalizacji modeli dla sprzętu Ascend, dostosowanie narzędzi i automatyzacji oraz opanowanie nowych API MindSpore. Mimo że narzędzia Huawei dynamicznie się rozwijają, wciąż brakuje im dojrzałości, stabilności czy szerokiego wsparcia ekosystemu, który oferuje PyTorch z CUDA. Huawei liczy jednak, że przejście na ich infrastrukturę przyniesie wymierne korzyści i zmniejszy zależność od amerykańskiego NVIDII. Dostępność procesorów Ascend jest ograniczona do niektórych rynków, co wymaga od zespołów spoza tych obszarów korzystania z platform partnerskich, takich jak ModelArts, w celu zdalnego dostępu do sprzętu. Firma aktywnie wspiera proces adaptacji, oferując obszerne przewodniki i zasoby migracyjne.
