AWS inwestuje w infrastrukturę AI, nowe funkcje SageMaker
Amazon Web Services (AWS) kontynuuje inwestycję w rozwój swojej platformy SageMaker, służącej do trenowania i wnioskowania modeli sztucznej inteligencji. Najnowsze aktualizacje obejmują nowe funkcje obserwowalności, połączone środowiska kodowania oraz zarządzanie wydajnością klastrów GPU.
SageMaker, który w 2024 roku został przekształcony w zunifikowane centrum integracji źródeł danych i dostępu do narzędzi machine learning, zyskał nowe możliwości. Umożliwiają one klientom AWS lepsze zrozumienie, dlaczego wydajność modeli ulega spowolnieniu, oraz kontrolę nad ilością zasobów obliczeniowych przeznaczonych na rozwój modeli.
Ankur Mehrotra, dyrektor generalny SageMaker, podkreślił, że wiele nowych aktualizacji powstało w odpowiedzi na potrzeby klientów. Jednym z wyzwań, z jakimi spotykają się klienci AWS przy tworzeniu modeli Gen AI, jest trudność w identyfikacji problemów, gdy coś nie działa zgodnie z oczekiwaniami.
Nowa funkcja SageMaker HyperPod observability pozwala inżynierom na badanie różnych warstw stacku, takich jak warstwa obliczeniowa czy sieć. Jeśli coś pójdzie nie tak lub modele stają się wolniejsze, SageMaker może zaalarmować użytkowników i opublikować dane na pulpicie nawigacyjnym.
Inną nowością jest możliwość łączenia lokalnych zintegrowanych środowisk programistycznych (IDE) z SageMaker, co ułatwia deweloperom wdrażanie lokalnie pisanych projektów AI na platformie. Dzięki temu klienci AWS mogą korzystać z zalet skalowalności SageMaker, jednocześnie pracując w preferowanym przez siebie środowisku.
AWS stoi w obliczu rosnącej konkurencji ze strony Google i Microsoft, które również oferują funkcje przyspieszające trening i wnioskowanie AI. Mimo to, AWS utrzymuje swoją pozycję lidera na rynku chmury obliczeniowej, a ulepszenia SageMaker mają na celu jeszcze lepsze wsparcie klientów w rozwoju ich projektów AI.
