Qualcomm wkracza na rynek chipów AI dla centrów danych, rzucając wyzwanie Nvidii
Rynek chipów sztucznej inteligencji właśnie zyskał nowego, znaczącego gracza. Qualcomm, firma odpowiedzialna za technologię zasilającą miliardy smartfonów na całym świecie, dokonała odważnego wejścia w segment chipów AI dla centrów danych. Obszar ten, w którym Nvidia od lat generuje niemal niewyobrażalne zyski, stanowi pole bitwy o supremację obliczeniową, gdzie fortuny rosną i upadają na obietnicach wydajności.
28 października 2025 roku Qualcomm złożył deklarację, prezentując swoje rozwiązania AI200 i AI250 – systemy typu rack-scale zaprojektowane specjalnie dla obciążeń związanych z inferencją AI. Reakcja Wall Street była natychmiastowa: akcje Qualcomma wzrosły o około 11%, co wskazuje na wiarę inwestorów w to, że nawet niewielki udział w eksplodującym rynku infrastruktury AI może fundamentalnie zmienić trajektorię firmy.
Wprowadzenie tych produktów może przedefiniować tożsamość Qualcomma. Gigant chipowy, od dawna kojarzony jest z technologią mobilną, dominując dzięki fali smartfonów. Jednak w obliczu stagnacji tego rynku, CEO Cristiano Amon stawia przemyślany zakład na chipy AI dla centrów danych, wspierany wielomiliardowym partnerstwem z saudyjskim potentatem AI, co sygnalizuje poważne intencje.
Dwa chipy, dwie strategie na przyszłość
Strategia Qualcomma jest intrygująca. Zamiast wprowadzać jeden produkt i liczyć na szczęście, firma dywersyfikuje ryzyko, oferując dwie odrębne architektury chipów AI dla centrów danych, z których każda celuje w inne potrzeby rynku i horyzonty czasowe.
AI200, mający zadebiutować w 2026 roku, reprezentuje pragmatyczne podejście. Jest to system typu rack-scale wyposażony w 768 GB pamięci LPDDR na kartę. Ta ogromna pojemność pamięci jest kluczowa dla obsługi współczesnych, wymagających modeli językowych i multimodalnych aplikacji AI. Qualcomm zakłada, że jego strategia niższych kosztów pamięci może przyczynić się do osiągnięcia niższego całkowitego kosztu posiadania (TCO) dla klientów, jednocześnie zapewniając wydajność wymaganą przez przedsiębiorstwa.
Jednak AI250, zaplanowany na 2027 rok, jest efektem ambitniejszych inżynieryjnych marzeń Qualcomma. To rozwiązanie wprowadza architekturę przetwarzania blisko pamięci (near-memory computing), która obiecuje przełamać konwencjonalne ograniczenia, oferując ponad dziesięciokrotnie większą efektywną przepustowość pamięci. W przypadku chipów AI dla centrów danych, przepustowość pamięci często stanowi wąskie gardło decydujące o tym, czy chatbot odpowiada natychmiast, czy użytkownicy muszą czekać. Innowacja Qualcomma w tym obszarze może okazać się prawdziwym przełomem, pod warunkiem, że firma sprosta swoim obietnicom.
Prawdziwa bitwa: ekonomia, nie tylko wydajność
W wyścigu zbrojeń infrastruktury AI, surowe specyfikacje wydajności to tylko połowa historii. Prawdziwa walka toczy się w arkuszach kalkulacyjnych, gdzie operatorzy centrów danych obliczają rachunki za energię, koszty chłodzenia i amortyzację sprzętu. Qualcomm jest tego świadomy, dlatego oba rozwiązania chipów AI dla centrów danych obsesyjnie skupiają się na całkowitym koszcie posiadania.
Każda szafa serwerowa zużywa 160 kW mocy i wykorzystuje bezpośrednie chłodzenie cieczą – co jest koniecznością, gdy tak duża moc obliczeniowa przepływa przez krzem. Systemy wykorzystują PCIe do skalowania wewnętrznego i Ethernet do łączenia wielu szaf, zapewniając elastyczność wdrożenia, niezależnie od tego, czy obsługuje się skromną usługę AI, czy buduje kolejnego konkurenta ChatGPT.
Bezpieczeństwo nie zostało pominięte; możliwości poufnego przetwarzania danych są wbudowane, odpowiadając na rosnące zapotrzebowanie przedsiębiorstw na ochronę zastrzeżonych modeli AI i wrażliwych danych.
Saudyjskie połączenie: miliardowa walidacja
Ogłoszenia o partnerstwach w technologii bywają efemeryczne, ale umowa Qualcomma z Humain ma realną wagę. Saudyjska firma AI wspierana przez państwo zobowiązała się do wdrożenia 200 megawatów chipów AI Qualcomma dla centrów danych – liczba, którą analityk Stacy Rasgon z Bernstein szacuje na około 2 miliardy dolarów przychodów dla Qualcomma.
Czy 2 miliardy dolarów to suma transformacyjna? W kontekście umowy AMD o wartości 10 miliardów dolarów z Humain ogłoszonej w tym samym roku, kwota ta może wydawać się skromna. Jednak dla firmy, która stara się dowieźć swoją pozycję w dyskusji o infrastrukturze AI, zapewnienie znaczącego zobowiązania do wdrożenia przed faktyczną premierą produktu jest walidacją nie do przecenienia.
„Wspólnie z Humain tworzymy podstawy dla transformacyjnej, napędzanej sztuczną inteligencją innowacji, która wzmocni przedsiębiorstwa, organizacje rządowe i społeczności w regionie i na świecie” – zadeklarował Amon w oświadczeniu, które pozycjonuje Qualcomma nie tylko jako dostawcę chipów, ale jako strategicznego partnera technologicznego dla rozwijających się gospodarek AI.
Współpraca, ogłoszona po raz pierwszy w maju 2025 roku, przekształca Qualcomma w kluczowego dostawcę infrastruktury dla ambitnych usług inferencji AI Humain. To może ustanowić kluczowe projekty referencyjne i wzorce wdrożeń dla przyszłych klientów.
Stos oprogramowania i doświadczenie deweloperskie
Oprócz specyfikacji sprzętowych, Qualcomm stawia na oprogramowanie przyjazne dla deweloperów, aby przyspieszyć adopcję. Stos oprogramowania AI firmy wspiera wiodące frameworki uczenia maszynowego i obiecuje „wdrażanie modeli za pomocą jednego kliknięcia” z Hugging Face, popularnego repozytorium modeli AI.
Qualcomm AI Inference Suite i Efficient Transformers Library mają na celu usunięcie tarć integracyjnych, które w przeszłości spowalniały wdrożenia AI w przedsiębiorstwach.
Dawid kontra Goliat (i kolejny Goliat?)
Należy otwarcie powiedzieć, z czym mierzy się Qualcomm. Kapitalizacja rynkowa Nvidii przekroczyła właśnie 5 bilionów dolarów – wycena odzwierciedlająca lata dominacji w AI i ekosystem tak zakorzeniony, że wielu deweloperów nie wyobraża sobie budowania na czymkolwiek innym. AMD, niegdyś pretendent, odnotowało ponad dwukrotny wzrost wartości akcji w 2025 roku, skutecznie wycinając dla siebie kawałek tortu AI.
Późne wejście Qualcomm na rynek chipów AI dla centrów danych oznacza walkę pod górę z konkurentami, którzy posiadają sprawdzone produkty, dojrzałe stosy oprogramowania i klientów już uruchamiających obciążenia produkcyjne na dużą skalę. Skupienie firmy na smartfonach, niegdyś jej największa siła, teraz wydaje się być strategicznym „widzeniem tunelowym”, które sprawiło, że przegapiono początkowy boom na infrastrukturę AI. Mimo to, analitycy rynkowi nie spisują Qualcomma na straty. Timothy Arcuri z UBS ujął dominujący sentyment podczas telekonferencji: „Fala rośnie tak szybko i będzie rosła tak gwałtownie, że uniesie wszystkie łodzie”.
Qualcomm gra patrząc na dłuższą perspektywę, zakładając, że ciągłe innowacje w chipach AI dla centrów danych mogą stopniowo pozyskać klientów szukających alternatyw dla duopolu Nvidia-AMD. Dla przedsiębiorstw oceniających opcje infrastruktury AI, nacisk Qualcomma na optymalizację inferencji, efektywność energetyczną i TCO stanowi alternatywę wartą uwagi – szczególnie w obliczu zbliżającej się premiery AI200 w 2026 roku.
