Technologia

Cena dominacji: Jak ambicje AI zderzają się z kryzysem klimatycznym?

Prognozy Accenture rzucają ponury cień na przyszłość rozwoju sztucznej inteligencji: do 2030 roku centra danych AI mogą odnotować jedenastokrotny wzrost emisji dwutlenku węgla. Raport przestrzega, że w ciągu najbliższych pięciu lat, centra danych AI mogą zużyć 612 terawatogodzin energii elektrycznej, co odpowiada rocznemu zapotrzebowaniu Kanady. To może przełożyć się na wzrost globalnych emisji CO2 o 3,4%. Napięcie będzie odczuwalne nie tylko w sieciach energetycznych.

W obliczu pogłębiającego się kryzysu wodnego, centra danych AI mają zużywać ponad 3 miliardy metrów sześciennych wody rocznie. To ilość, która przewyższa roczne zużycie wody słodkiej w krajach takich jak Norwegia czy Szwecja. Raport Accenture „Powering Sustainable AI” zawiera rekomendacje, jak zapobiec realizacji tych alarmujących scenariuszy.

Jednak niemal codzienne doniesienia o masowych inwestycjach w centra danych AI, realizowanych przez gigantów technologicznych na całym świecie, budzą głęboki cynizm. Wyścig o dominację w dziedzinie AI, zwłaszcza w kontekście rywalizacji z Chinami, zdaje się nie pozostawiać miejsca na poważne rozważania o zrównoważonym rozwoju.

Ekspansja bez granic

Przykłady z ostatniego czasu są wymowne. OpenAI podpisało umowę z Oracle na wynajem ogromnych mocy obliczeniowych w ramach wartego 500 miliardów dolarów projektu Stargate, mającego na celu budowę nowej infrastruktury AI w USA. Bloomberg informuje, że dodatkowe moce z Oracle to około 4,5 gigawata, co odpowiada mocy jednej elektrowni jądrowej zasilającej około 750 000 domów.

Meta, z kolei, dąży do pozyskania 29 miliardów dolarów od prywatnych firm inwestycyjnych na budowę centrów danych AI w USA, jednocześnie realizując już projekt o wartości 10 miliardów dolarów w Północno-Wschodniej Luizjanie. Co więcej, lokalny dostawca energii, Entergy, ma zbudować trzy nowe elektrownie, aby sprostać zapotrzebowaniu Mety.

Mark Zuckerberg, prezes Mety, jasno wyraża swoje intencje: USA muszą przyspieszyć budowę centrów danych AI, aby nie oddać pola Chinom w wyścigu o dominację. Na podcastie Dwarkesh w maju, Zuckerberg ostrzegał, że przewaga Ameryki w sztucznej inteligencji może zostać zagrożona, jeśli nie nadąży za agresywną ekspansją Chin w zakresie pojemności centrów danych i sprzętu na skalę fabryczną. „USA muszą skupić się na usprawnieniu możliwości budowy centrów danych i produkcji energii. W przeciwnym razie znajdziemy się w znacząco niekorzystnej sytuacji” – podkreślił.

Priorytety administracji Bidena

Rząd USA zdaje się podzielać to poczucie pilności. David Sacks, doradca Białego Domu ds. AI i kryptowalut, także podkreślał, że rozwój energetyki i centrów danych jest kluczowy dla amerykańskiej strategii AI, pozostawiając niewiele miejsca na obawy o zrównoważony rozwój. W lutym, w swoim podcaście All In, Sacks argumentował, że „powolne podejście” Waszyngtonu do AI może zdławić branżę. Podkreślał konieczność ułatwienia rozwoju infrastruktury i energetyki, w tym centrów danych AI, aby utrzymać tempo z Chinami.

Pod koniec maja poszedł dalej, twierdząc, że usprawnienie pozwoleń i zwiększenie produkcji energii są niezbędne dla przyszłości AI – coś, co, jego zdaniem, było „faktycznie niemożliwe za administracji Bidena”. Jego przesłanie jest jasne: USA muszą przyspieszyć budowę.

Zrównoważony rozwój kontra wzrost

Accenture, mimo pesymistycznych prognoz, wzywa swoich klientów do odpowiedzialnego rozwoju i projektowania centrów danych AI, dążąc do zrównoważenia wzrostu z odpowiedzialnością środowiskową. Firma wprowadza nową metrykę – Sustainable AI Quotient (SAIQ) – która ma mierzyć prawdziwe koszty AI pod względem zainwestowanych środków, zużytych megawatogodzin energii, wyemitowanych ton CO2 i zużytych metrów sześciennych wody.

„SAIQ ma pomóc organizacjom odpowiedzieć na podstawowe pytanie: ‘Co tak naprawdę otrzymujemy z zasobów, które inwestujemy w AI?’, a także pozwolić na bieżącą ocenę wyników” – czytamy w raporcie. Matthew Robinson, dyrektor zarządzający Accenture Research i współautor raportu, wyraził nadzieję, że prognozy Accenture okażą się błędne. „Są one wręcz zatrważające” – skonstatował, wyjaśniając, że Accenture modelowało przyszłe zużycie energii na podstawie spodziewanej liczby zainstalowanych chipów AI, skorygowanej o ich wykorzystanie i dodatkowe zapotrzebowanie na energię centrów danych. Dane te zostały połączone z regionalnymi danymi dotyczącymi wytwarzania energii elektrycznej, miksu energetycznego i emisji, podczas gdy zużycie wody oceniono na podstawie zużycia energii w centrach danych AI i ilości wody zużywanej na jednostkę wytworzonej energii. „Celem jest tak naprawdę rozpoczęcie dyskusji na temat działań, które można podjąć, aby uniknąć tej ścieżki – nie chcemy mieć racji” – dodał.

Robinson, choć nie komentując działań konkretnych firm, podkreślił, że ogólnie rzecz biorąc, potrzeba więcej wysiłku, aby zapobiec wzrostowi emisji dwutlenku węgla napędzanemu przez centra danych AI, jednocześnie umożliwiając rozwój gospodarczy. Zalecenia Accenture są sensowne: optymalizacja efektywności energetycznej obciążeń AI i centrów danych, z zastosowaniem wszystkiego od niskoemisyjnych źródeł energii po innowacje w chłodzeniu. Ponadto, należy świadomie korzystać z AI, wybierając mniejsze modele AI i lepsze modele cenowe, które zachęcają do efektywności. Niezbędne jest również zapewnienie lepszego zarządzania inicjatywami w zakresie zrównoważonego rozwoju w AI.

Nadzieja w efektywności?

Trudno sobie wyobrazić, by najwięksi gracze w wyścigu o dominację w AI – giganci technologiczni i dobrze finansowane startupy – zwolnili tempo na tyle, by poważnie zająć się tymi rosnącymi obawami. Co prawda, istnieją wyjątki. Google, w swoim najnowszym raporcie dotyczącym zrównoważonego rozwoju, ujawniło, że jego centra danych zużywają więcej energii niż kiedykolwiek. W 2024 roku Google zużyło około 32,1 miliona megawatogodzin (MWh) energii elektrycznej, z czego aż 95,8%, czyli około 30,8 miliona MWh, przypadało na centra danych.

To ponad dwukrotność energii zużytej przez centra danych w 2020 roku, tuż przed boomem AI konsumenckiego. Mimo to, Google podkreśla, że poczyniło znaczące postępy w zakresie ekologizacji źródeł energii, nawet w obliczu rosnącego zapotrzebowania. Firma podała, że obniżyła emisje z centrów danych o 12% w 2024 roku, dzięki projektom czystej energii i usprawnieniom efektywności. Co więcej, gigant technologiczny wyciska coraz więcej z każdego wata.

Google poinformowało, że ilość mocy obliczeniowej na jednostkę energii elektrycznej wzrosła około sześciokrotnie w ciągu ostatnich pięciu lat. Jej wskaźnik efektywności zużycia energii (PUE) – kluczowy wskaźnik efektywności centrum danych – zbliża się obecnie do teoretycznego minimum 1,0, osiągając raportowany PUE na poziomie 1,09 w 2024 roku. „Osobiście jestem optymistą” – podsumował Robinson.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *