Chiny zyskują przewagę w otwartym AI – analiza strukturalnych czynników
Niedawne wydarzenia na chińskiej scenie sztucznej inteligencji rzucają nowe światło na globalny wyścig w tej dynamicznej dziedzinie. Gdy modele takie jak DeepSeek R1 pojawiły się niemal jednocześnie z inauguracją Trumpa w USA, wielu spekulowało o politycznym tle tej premiery. Prawda okazała się znacznie bardziej pragmatyczna: chińscy inżynierowie dążyli do zakończenia prac przed Nowym Rokiem Księżycowym, co jest kluczowym terminem w tamtejszym kalendarzu. To właśnie ten moment wywołał alarm w konkurencyjnych laboratoriach, zmuszając zespoły takie jak Alibaba do heroicznego wysiłku, by w rekordowym czasie wprowadzić na rynek własne modele, jak Qwen 2.5 Max.
Część zaskakująca w tym nowym układzie sił to fakt, że większość czołowych chińskich modeli AI, w tym DeepSeek, Qwen i MiniMax, jest udostępniana na bardzo liberalnych licencjach open source, takich jak Apache 2 czy MIT. Według raportu Artificial Analysis, te trzy chińskie modele zajmują obecnie czołowe miejsca w rankingach otwartych rozwiązań AI. To stoi w wyraźnej opozycji do strategii amerykańskich gigantów, którzy preferują zamknięte, korporacyjne licencje, jak choćby Meta z modelem Llama.
Strukturalne przewagi Chin w otwartym AI
Ion Stoica, profesor informatyki z Berkeley i współzałożyciel m.in. Databricks, identyfikuje trzy kluczowe przewagi strukturalne, które napędzają chińską dominację w otwartym AI. Jego obserwacje, mające solidne podstawy w akademii i przemyśle, zasługują na szczegółową analizę.
Ekspertyza i talent
Jensen Huang, CEO Nvidii, często powtarza, że Chiny posiadają 50% globalnych talentów badawczych w AI. Choć ta liczba może być nieco zawyżona ze względów marketingowych, dokładniejsze dane z projektu MacroPolo wskazują, że 47% najbardziej obiecujących talentów studenckich w czołowych 20% globalnych rankingów pochodzi z Chin. Ta ogromna pula wykwalifikowanych specjalistów jest fundamentem innowacji. Dodatkowo, chińska baza w zaawansowanym przemyśle wytwórczym i biotechnologii sprzyja rozwojowi specjalistycznej wiedzy branżowej. Taka ekspertyza domenowa jest nieoceniona, zwłaszcza w kontekście uczenia ze wzmocnieniem (RL), gdzie precyzyjne modelowanie nagród wymaga głębokiego zrozumienia specyfiki zastosowań w świecie rzeczywistym.
Dane: obfitość i specyfika
Przewaga Chin w danych często sprowadzana jest do banału o dużej populacji i słabej ochronie prywatności. Jednak rzeczywistość jest bardziej złożona. Chiński internet jest silnie cenzurowany, co wpływa na wiarygodność i jakość ogólnodostępnych zbiorów danych. Ponadto, dużych chińskich firm internetowych, takich jak ByteDance czy Tencent, charakteryzuje podejście „walled-garden”, utrudniające innym podmiotom swobodne pozyskiwanie danych użytkowników. Prawdziwa przewaga danych Chin tkwi gdzie indziej.
Po pierwsze, przemysł wytwórczy oraz branże związane z 5G i IoT generują ogromne ilości wysokiej jakości danych pionowych. Są to dane realnych zastosowań, kluczowe dla treningu i ewaluacji modeli AI. Po drugie, podczas gdy globalne firmy AI, w tym OpenAI, świadomie wycofały się z chińskiego rynku, chińskie laboratoria mają pełny dostęp do specyficznych danych internetowych z tego regionu. Mają też nieograniczony dostęp do danych globalnego internetu. Połączenie tych dwóch źródeł – specyficznych danych przemysłowych i szerokiego dostępu do danych chińskiego i globalnego internetu – stanowi znaczącą przewagę konkurencyjną.
Open source jako domyślny standard
Silna więź między środowiskiem akademickim a komercyjnymi laboratoriami AI w Chinach jest kluczowa dla dominacji open source. W przeciwieństwie do USA, gdzie kapitalizm często pośredniczy między nauką a biznesem, w Chinach istnieje bardziej płynny transfer wiedzy. W wielu dziedzinach STEM od chińskich naukowców wymaga się, by ich badania miały realny wpływ na przemysł, a publikowanie samych artykułów naukowych nie zawsze wystarcza do awansu. Ten mechanizm, obecny co najmniej od dekady, promuje praktyczne zastosowania badań.
Meta, będąca pod presją, by dogonić konkurencję, dwa lata temu udostępniła model Llama, co zapoczątkowało trend open source w AI. Chińskie laboratoria szybko podchwyciły tę strategię. Otwarte modele nie tylko przyspieszają rozwój dzięki współpracy społeczności, ale także umożliwiają dyfuzję technologii AI do szerszego grona zastosowań, ponieważ są darmowe i elastyczne w adaptacji. Ten efekt kuli śnieżnej działa globalnie, a chińskie laboratoria wydają się doskonale rozumieć i wykorzystywać wszystkie dodatkowe korzyści płynące z otwartego AI.
Implikacje dla globalnego wyścigu AI
Relacja między akademią a przemysłem w Dolinie Krzemowej od dawna była napędzana przez mechanizmy kapitalistyczne – wysokie pensje, inwestycje kapitału podwyższonego ryzyka (VC) czy akwizycje. W Chinach ten model ewoluuje. Choć rywalizacja o talenty nadal istnieje, jej mechanizmy są inne. Fundusze korporacyjne i rządowe odgrywają coraz większą rolę, a ich cele wykraczają poza maksymalizację zysków finansowych.
Dla Stanów Zjednoczonych, dominacja zamkniętych systemów AI oznacza silosy i zbędne duplikowanie infrastruktury. Według szacunków Coatue, do 2025 roku sześć największych firm technologicznych wyda 365 miliardów dolarów na infrastrukturę centrów danych AI. Znaczna część tych środków, jak sugeruje Stoica, może być przeznaczona na redundantne systemy, wynikające z braku współdzielonych artefaktów. Chiny, przez przyjęcie open source, dążą do efektywniejszego wykorzystania zasobów, promując budowanie na wspólnych elementach i globalną współpracę.
Nie oznacza to, że w Chinach nie ma rywalizacji czy duplikacji infrastruktury. Giganci tacy jak Alibaba, Huawei czy Baidu nadal inwestują we własne rozwiązania. Jednak fundamentalna różnica tkwi w filozofii. Kiedy społeczeństwo tak zamknięte jak Chiny wybiera transparentność otwartego kodu źródłowego, podczas gdy otwarte społeczeństwa, jak Stany Zjednoczone, preferują tajemnicę zamkniętych rozwiązań, pojawia się pytanie o przyszłość AI jako technologii dla całej ludzkości. To, co zaczęło się od gorącej pogoni chińskich firm za amerykańskimi, może ostatecznie doprowadzić do gruntownej zmiany paradygmatu w rozwoju sztucznej inteligencji.
