Hardware

Kruszenie fundamentów pod zamkiem Nvidii: jak sztuczna inteligencja rewolucjonizuje projektowanie układów scalonych

Dominacja Nvidii na rynku technologicznym stała się aksjomatem, a kapitalizacja spółki przekraczająca 4 biliony dolarów jest tego najlepszym dowodem. Jednak siła lidera nie wynika wyłącznie z wydajności tranzystorów, ale z potężnej bariery wejścia, jaką jest ekosystem oprogramowania. Programowanie procesorów graficznych (GPU) tak, aby działały z maksymalną efektywnością, to sztuka wymagająca armii wysokiej klasy inżynierów. To właśnie ta „fosa”, jak nazywa się w biznesie przewagę strategiczną, staje się teraz celem ataku nowej generacji narzędzi AI.

Sztuczna inteligencja zdejmuje klątwę z alternatywnych układów krzemowych

Największym problemem takich gigantów jak AMD czy Amazon nie jest brak wydajnego sprzętu – ich układy często dorównują Nvidii w surowych testach typu floating-point. Barierą jest optymalizacja kodu pod konkretną architekturę. Kiedy Anthropic przenosił swoje modele Claude na procesory Trainium Amazona, musiał pisać kod praktycznie od zera. Startup Wafer, założony przez Emilio Andere, chce położyć kres tej mozolnej pracy.

Wykorzystując uczenie maszynowe ze wzmocnieniem (reinforcement learning) oraz zaawansowane modele językowe, Wafer tworzy agentów zdolnych do samodzielnego pisania kodu jądra (kernel code). Dzięki temu oprogramowanie może komunikować się bezpośrednio ze sprzętem z pominięciem tradycyjnych, czasochłonnych barier programistycznych. Projekt wspierany przez tak znane postacie jak Jeff Dean (Google) czy Wojciech Zaremba (OpenAI), ma szansę zdemokratyzować dostęp do wydajnego sprzętu, udostępniając technologię optymalizacji firmom, które nie posiadają wielomiliardowych budżetów na inżynierię oprogramowania.

Od kodu do fizycznego projektu: narodziny Ricursive

Problem nie kończy się jednak na samym kodzie – proces projektowania fizycznych układów scalonych jest równie karkołomny. Dwie byłe inżynierki Google, Azalia Mirhoseini i Anna Goldie, założyły startup Ricursive Intelligence, który ma zautomatyzować projektowanie fizyczne i weryfikację chipów. To najbardziej krytyczne i podatne na błędy etapy tworzenia procesorów.

Metoda opracowana przez Mirhoseini i Goldie pozwala AI optymalizować rozmieszczenie komponentów na krzemie, co Google z powodzeniem stosuje już we własnych jednostkach TPU. Teraz Ricursive idzie o krok dalej, integrując duże modele językowe w proces inżynieryjny. Wizja jest śmiała: projektowanie procesorów za pomocą języka naturalnego, co Goldie nazywa „prawem skalowania dla architektury chipów”. Zamiast lat pracy zespołów ludzkich, proces ten mógłby zostać skrócony do tygodni, a AI mogłaby rekurencyjnie ulepszać własny sprzęt, na którym operuje.

Zmierzch ery programowalności jako bariery

Choć Nvidia pozostaje na szczycie, fundamenty jej przewagi rynkowej zaczynają pękać. Jeśli optymalizacja kodu przestanie być wyzwaniem logistycznym i finansowym, wybór dostawcy sprzętu zacznie zależeć od czystej opłacalności, a nie od przyzwyczajenia do bibliotek CUDA. Jak zauważa Emilio Andere, „fosa” Nvidii tkwi w programowalności układów. Jeśli AI przejmie tę rolę, dotychczasowa przewaga software’owa giganta z Santa Clara może zniknąć szybciej, niż zakładają analitycy. Wchodzimy w erę, w której inteligencja na wat będzie ważniejsza niż lojalność wobec konkretnego ekosystemu.