BiznesInfrastruktura

Google dziesięciokrotnie zwiększy infrastrukturę AI

Google zadeklarowało ambitny plan znaczącego rozbudowania swojej infrastruktury sztucznej inteligencji. Amin Vahdat, szef działu infrastruktury AI w Google, podczas wewnętrznego spotkania 6 listopada, ogłosił, że firma zamierza dziesięciokrotnie zwiększyć swoje możliwości w ciągu najbliższych czterech do pięciu lat. Oznacza to podwajanie rozmiaru serwerów co sześć miesięcy, co ma być odpowiedzią na gwałtownie rosnące zapotrzebowanie na zasoby obliczeniowe dla AI.

Strategia ta, choć wymagająca ogromnych nakładów inwestycyjnych, wydaje się być uzasadniona kondycją finansową Alphabet, spółki-matki Google. Firma odnotowała dobre wyniki w trzecim kwartale i zwiększyła swoje prognozy wydatków kapitałowych do 93 miliardów dolarów. Vahdat odniósł się do obaw pracowników dotyczących potencjalnej „bańki AI”, podkreślając ryzyko niedostatecznych inwestycji. Stwierdził, że większa moc obliczeniowa przełożyłaby się na znacznie lepsze wyniki w operacjach chmurowych, które notują dynamiczny, bo około 33-procentowy roczny wzrost. Ten komponent biznesowy zapewnia Google stabilne źródło dochodów, co pozwala firmie „lepiej znosić niepowodzenia niż innym przedsiębiorstwom”.

Rozwój infrastruktury obejmuje również wdrażanie bardziej efektywnych rozwiązań sprzętowych, takich jak procesory TPU siódmej generacji, oraz optymalizację modeli językowych (LLM). Google wierzy, że te działania pozwolą generować wartość dodaną dla przedsiębiorstw, które coraz szerzej implementują technologie AI.

Rosnące zapotrzebowanie na infrastrukturę AI jest problemem nie tylko dla Google. Markus Nispel z Extreme Networks, w artykule na techradar.com, zwrócił uwagę, że przestarzała infrastruktura IT jest główną przeszkodą w pomyślnej realizacji projektów AI. Wskazuje, że wysokie wymagania obciążeń AI w połączeniu z ograniczeniami starszych systemów, brakiem możliwości przetwarzania w czasie rzeczywistym oraz fragmentaryzacją danych, prowadzących do niepowodzeń. „Nawet gdy projekty są uruchamiane, często borykają się z opóźnieniami spowodowanymi słabą dostępnością danych lub rozdrobnionymi systemami. Jeśli czyste dane w czasie rzeczywistym nie mogą swobodnie przepływać przez organizację, modele AI nie mogą działać skutecznie, a generowane przez nie wnioski pojawiają się zbyt późno lub są bezużyteczne.” – zauważył Nispel.

Jego spostrzeżenia znajdują potwierdzenie w działaniach największych dostawców technologii. Google, Microsoft, Amazon i Meta spodziewają się, że ich łączne wydatki kapitałowe przekroczą w tym roku 380 miliardów dolarów, z czego większość zostanie przeznaczona na infrastrukturę AI. To wyraźny sygnał od hiperskalujących firm: inwestując w infrastrukturę, przygotowują grunt pod dalszy rozwój i adopcję technologii AI. Rozwiązanie problemów infrastrukturalnych jest kluczowe dla sukcesu projektów opartych na AI. Elastyczna infrastruktura, umiejscowiona jak najbliżej punktu przetwarzania danych, oraz ujednolicone zbiory danych są kluczowymi elementami w uzyskaniu pełnej wartości z projektów AI nowej generacji.

Chociaż w najbliższych sześciu miesiącach spodziewane jest pewne dostosowanie rynku w sektorze AI, firmy takie jak Google są dobrze przygotowane do konsolidacji rynkowej i dalszego oferowania przełomowych technologii w miarę ewolucji sztucznej inteligencji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *