BiznesChmuraHardware

Amazon przedstawia procesor Trainium3 i nakreśla plan współpracy z Nvidią

Amazon Web Services (AWS) kontynuuje swoją strategię rozwoju autorskich chipów AI, prezentując na konferencji re:Invent 2025 nową generację procesorów Trainium. Najważniejszym punktem ogłoszenia było wprowadzenie układu Trainium3 UltraServer, opartego na zaawansowanej technologii 3 nanometrów, stanowiącego kolejny krok w optymalizacji zadań uczenia maszynowego i wnioskowania.

Zgodnie z informacjami AWS, nowy system oferuje ponad czterokrotny wzrost szybkości przetwarzania i czterokrotnie większą pamięć operacyjną w porównaniu do poprzedniej generacji. Co więcej, możliwe jest łączenie tysięcy UltraServerów, co pozwala na obsługę do miliona chipów Trainium3, dziesięciokrotnie zwiększając skalowalność w porównaniu z poprzednikami. Każdy UltraServer może pomieścić 144 układy.

Kluczowym aspektem innowacji jest również znacząca poprawa efektywności energetycznej. AWS podkreśla, że Trainium3 jest o 40% bardziej energooszczędny niż jego poprzednicy. W obliczu rosnącego zapotrzebowania na moc obliczeniową w centrach danych, dążenie do zmniejszenia zużycia energii staje się priorytetem. To nie tylko obniża koszty operacyjne dla AWS, ale także przekłada się na oszczędności dla klientów korzystających z chmurowych usług AI Amazona, co jest spójne z ich tradycyjnym podejściem do optymalizacji kosztów. Wśród firm, które już korzystają z Trainium3, wymienia się Anthropic, japoński LLM Karakuri, SplashMusic i Decart, które odnotowały znaczne obniżenie kosztów wnioskowania.

Trainium4: Integracja z ekosystemem Nvidii

Obok premiery Trainium3, AWS przedstawił wstępną wizję kolejnej generacji układów – Trainium4. Ten, będący już w fazie rozwoju, ma oferować dalszy wzrost wydajności, a co istotniejsze, będzie wspierał technologię szybkiego połączenia chipów NVLink Fusion firmy Nvidia.

Ta strategiczna decyzja ma umożliwić systemom opartym na Trainium4 współdziałanie i rozszerzanie możliwości obliczeniowych z procesorami graficznymi (GPU) Nvidii, jednocześnie wykorzystując autorską, bardziej ekonomiczną technologię serwerową Amazona. Jest to istotne w kontekście dominacji platformy CUDA (Compute Unified Device Architecture) firmy Nvidia, która stała się de facto standardem w rozwoju aplikacji AI. Integracja z NVLink Fusion może ułatwić przyciągnięcie do chmury Amazona dużych projektów AI, które obecnie bazują na infrastrukturze Nvidii.

Choć AWS nie podał konkretnych terminów wprowadzenia Trainium4 na rynek, dotychczasowe harmonogramy sugerują, że więcej informacji na ten temat możemy spodziewać się na przyszłorocznej konferencji re:Invent. Rozwój ten wskazuje na ambitne plany Amazona w kontekście budowania konkurencyjnej i wszechstronnej platformy dla obliczeń AI w chmurze, zdolnej zarówno do autonomicznego rozwoju, jak i do synergii z kluczowymi graczami na rynku.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *