BiznesInfrastruktura

Meta buduje gigantyczne centra danych, by zdominować rynek AI – ale jakim kosztem?

W obliczu zaostrzającej się rywalizacji w dziedzinie sztucznej inteligencji, Meta, kierowana przez Marka Zuckerberga, ogłosiła ambitne plany budowy dwóch gigantycznych centrów danych, które mają zasilić jej rodzące się laboratorium AI. Inwestycje te, nazwane Hyperion i Prometheus, są jawną próbą wyprzedzenia konkurencji, w tym OpenAI i Google.

Hyperion, jak oświadczył Zuckerberg na platformie Threads, ma docelowo dostarczyć imponujące pięć gigawatów mocy obliczeniowej. Rzeczniczka Mety, Ashley Gabriel, potwierdziła TechCrunch, że obiekt powstaje w Luizjanie, prawdopodobnie w parafii Richland, gdzie Meta już wcześniej zapowiedziała inwestycję o wartości 10 miliardów dolarów. Chociaż pełna moc 5 GW ma być osiągnięta w ciągu kilku lat, do 2030 roku Hyperion ma funkcjonować z mocą 2 GW. Skala przedsięwzięcia jest porównywalna z obszarem większości Manhattanu, co świadczy o ogromie planowanej infrastruktury.

Równocześnie, Meta przygotowuje się do uruchomienia superklastra Prometheus o mocy 1 GW, planowanego na 2026 rok. Ten obiekt, zlokalizowany w New Albany w stanie Ohio, ma być jednym z pierwszych tego rozmiaru w sektorze prywatnym, co umacnia pozycję Mety jako gracza zdolnego do konkurowania z gigantami takimi jak OpenAI i Google DeepMind w zakresie trenowania zaawansowanych modeli AI i przyciągania talentów.

Ekspansja Mety w dziedzinie centrów danych jest częścią szerszego trendu w branży technologicznej, gdzie firmy intensywnie inwestują w zasoby obliczeniowe niezbędne do rozwoju przełomowych modeli AI. Wcześniej Meta zatrudniła kluczowych ekspertów, takich jak Alexandr Wang (były CEO Scale AI) i Daniel Gross (były CEO Safe Superintelligence) do zarządzania Meta Superintelligence Lab, co świadczy o strategicznym podejściu do budowania wewnętrznych kompetencji.

Jednak te monumentalne projekty niosą ze sobą poważne konsekwencje środowiskowe i społeczne. Sumaryczne zapotrzebowanie na energię dla Prometheusa i Hyperiona dorównuje mocy potrzebnej do zasilenia milionów domów, co stawia pod znakiem zapytania obciążenie lokalnych sieci energetycznych i zasobów wodnych. Przykłady już istnieją: projekt centrum danych Mety w Newton County w Georgii doprowadził do problemów z dostępnością wody dla mieszkańców, jak doniósł „The New York Times”.

Obawy o zasoby nie ograniczają się do Mety. Firma CoreWeave, zajmująca się hiperskalowaniem AI, planuje rozbudowę centrum danych, która może podwoić zapotrzebowanie na energię w mieście koło Dallas w Teksasie, zgodnie z raportem Bloomberga. Mimo tych wyzwań, ambicje firm technologicznych w tworzeniu gigantycznych centrów danych są niezachwiane. Inne znaczące inicjatywy to projekt Stargate OpenAI z Oracle i SoftBankiem oraz superkomputer Colossus firmy xAI.

W USA administracja Trumpa jednoznacznie wspiera rozwój infrastruktury AI. Chris Wright, sekretarz energii USA, w artykule dla „The Economist”, wezwał do objęcia przez Stany Zjednoczone wiodącej pozycji w kolejnej energochłonnej dziedzinie – sztucznej inteligencji. Podkreślił, że AI przekształca energię w „najcenniejszy możliwy produkt: inteligencję” i zapowiedział przyspieszenie produkcji energii z węgla, atomu, geotermii i gazu ziemnego.

Szacuje się, że do 2030 roku centra danych mogą odpowiadać za 20% zużycia energii w Ameryce, w porównaniu do zaledwie 2,5% w 2022 roku. Tak gwałtowny wzrost, bez odpowiedniego zwiększenia produkcji energii, może prowadzić do dalszych napięć i problemów dla lokalnych społeczności, stawiając pod znakiem zapytania ekologiczny i społeczny koszt wyścigu w dziedzinie AI.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *