Geopolityka

Chiny i przyszłość globalnej regulacji AI: Między współpracą a wewnętrznymi priorytetami

Maj przyniósł serię istotnych wydarzeń, które rzucają światło na ewolucję chińskiego podejścia do sztucznej inteligencji, zwłaszcza w kontekście bezpieczeństwa AI i globalnego zarządzania. Od pierwszego dwustronnego dialogu z Wielką Brytanią po intensyfikację działań na rzecz budowania zdolności AI w krajach rozwijających się, Pekin zdaje się konsekwentnie realizować swoją wizję.

Dyplomacja AI: Chiny i Wielka Brytania otwierają dialog

20 maja w Pekinie odbyła się historyczna rozmowa między Chinami a Wielką Brytanią, stanowiąca pierwszy dialog międzyrządowy poświęcony sztucznej inteligencji. Delegacji chińskiej przewodniczył Sun Xiaobao, dyrektor generalny Departamentu Kontroli Zbrojeń Ministerstwa Spraw Zagranicznych, wspierany przez przedstawicieli kluczowych resortów, w tym Narodowej Komisji Rozwoju i Reform oraz Ministerstwa Przemysłu i Technologii Informacyjnych. Stronę brytyjską reprezentował Chris Jones, dyrektor Departamentu Międzynarodowej Nauki i Technologii w Foreign, Commonwealth and Development Office.

Chińskie komunikaty po spotkaniu były skąpe, jednak podkreślano wzajemne poparcie dla „zdrowego, bezpiecznego i uporządkowanego rozwoju” sztucznej inteligencji. Zwrócono również uwagę na znaczenie budowania zdolności AI w krajach rozwijających się, co ma być elementem szerszego Globalnego Paktu Cyfrowego ONZ. Co istotne, chiński ambasador w Wielkiej Brytanii, Zheng Zeguang, kilka dni wcześniej podczas Forum Przedsiębiorców Chińsko-Brytyjskich, akcentował pilność współpracy międzynarodowej, jednocześnie ostrzegając przed „nadmiernym rozszerzaniem koncepcji bezpieczeństwa narodowego”, które mogłoby hamować współpracę naukową i technologiczną.

Rozpoczęcie formalnego dialogu z Wielką Brytanią, szczególnie w obliczu potencjalnego impasu w rozmowach chińsko-amerykańskich, może stanowić kluczowe okno komunikacyjne między Chinami a państwami zachodnimi. To także test na możliwość współpracy w obszarach bezpieczeństwa AI, gdzie Wielka Brytania od dawna wyrażała swoje zainteresowanie. Geopolityka pozostaje jednak istotnym czynnikiem, wpływającym na zakres i dynamikę takiej kooperacji.

Pekin wzmacnia pozycję w krajach globalnego południa

Poza dialogiem dwustronnym, Chiny kontynuują aktywne działania na forum ONZ, koncentrując się na budowaniu zdolności AI w krajach rozwijających się. 6 maja w Nowym Jorku odbyło się drugie spotkanie „Grupy Przyjaciół” ds. budowania zdolności AI, zainicjowanej przez Chiny i Zambię w 2024 roku, gromadząc przedstawicieli ponad 70 krajów i organizacji. Ambasador Chin przy ONZ, Fu Cong, podkreślił zaangażowanie Pekinu w inkluzywne zarządzanie AI, deklarując, że Chiny „nie tylko wychodzą z inicjatywami, ale także działają”.

Dodatkowo, między 12 a 17 maja, na Uniwersytecie Tsinghua w Pekinie, odbyły się warsztaty dla 37 przedstawicieli z 35 krajów rozwijających się. To kontynuacja podobnych inicjatyw, mających na celu dzielenie się wiedzą i doświadczeniami w rozwoju AI. Wicepremier spraw zagranicznych Ma Zhaoxu określił Chiny jako „aktywnego orędownika, promotora i pioniera” globalnego budowania zdolności AI. Działania te wpisują się w szerszą strategię Chin, by stać się liderem w tej dziedzinie, co stanowi kontrast wobec tego, co Pekin postrzega jako protekcjonizm technologiczny ze strony USA.

Ustawodawstwo krajowe: Ewolucja zamiast pośpiechu

Na froncie wewnętrznym, chińskie organy legislacyjne sygnalizują bardziej zniuansowane podejście do regulacji AI. Plany legislacyjne na 2025 rok, opublikowane przez Radę Państwa i Ogólnochińskie Zgromadzenie Przedstawicieli Ludowych, wskazują na „postępowanie prac legislacyjnych na rzecz zdrowego rozwoju AI”, ale bez wyraźnego priorytetu dla uchwalenia odrębnej ustawy o AI. Wcześniejsze zapowiedzi z lat 2023 i 2024 sugerowały szybsze przygotowanie projektu „Ustawy o AI”.

Zhang Linghan, wpływowa ekspertka ds. polityki AI i współautorka jednego z projektów ustawy, sugeruje, że jest to ewolucja, a nie zatrzymanie procesu. Jej zdaniem, nowe sformułowania odzwierciedlają dążenie do bardziej zintegrowanej strategii, polegającej na wdrażaniu przepisów dotyczących AI w już istniejące ramy prawne (np. nowelizując ustawę o ruchu drogowym w kontekście autonomicznych pojazdów) oraz tworzenie „małych, szybkich i celowanych” regulacji, które docelowo mają ułożyć się w kompleksowy system. Wydaje się, że Chiny stawiają na elastyczność i stopniowe budowanie ram prawnych, zamiast jednorazowego, rewolucyjnego aktu.

Standaryzacja bezpieczeństwa AI staje się faktem

25 kwietnia, Administracja Standaryzacji Chin opublikowała finalne wersje trzech krajowych standardów bezpieczeństwa dla generatywnych modeli AI. Wchodzące w życie w listopadzie 2025 r., choć formalnie „zalecane”, w praktyce będą stanowić de facto wymóg dla dostawców usług AI. Standardy te koncentrują się na identyfikacji 31 ryzyk bezpieczeństwa w pięciu kategoriach, takich jak naruszenie wartości socjalistycznych, dyskryminacja czy niewłaściwe praktyki komercyjne. Określają również szczegółowe wytyczne dotyczące filtrowania danych treningowych i procesu ich etykietowania.

Warto zauważyć, że finalne wersje standardów obejmują nowe zapisy dotyczące oceny syntetycznych danych treningowych pod kątem halucynacji oraz odniesienia do AI działającej na urządzeniach końcowych (tzw. „edge AI”). Chociaż nie są to rewolucyjne zmiany w stosunku do pierwotnych projektów, wskazują na rosnącą szczegółowość w chińskich regulacjach, choć egzekwowanie ich w kontekście modeli opartych na otwartym kodzie pozostaje wyzwaniem.

Bezpieczeństwo AI w doktrynie bezpieczeństwa narodowego

12 maja, Biuro Informacyjne Rady Państwa opublikowało pierwszą białą księgę dotyczącą bezpieczeństwa narodowego, w której wielokrotnie odniesiono się do roli bezpieczeństwa AI. Dokument uznaje AI za jeden z kluczowych obszarów w ramach szerokiej chińskiej koncepcji „wielkiego bezpieczeństwa”. Biała księga wzywa do tworzenia systemów nadzoru i oceny bezpieczeństwa AI oraz do przyspieszenia legislacji w tym zakresie, jednocześnie sprzeciwiając się nadinterpretacji pojęcia bezpieczeństwa narodowego. Wskazuje to na rosnące wplatanie ryzyk związanych z AI w chińskie planowanie bezpieczeństwa państwowego.

Innowacje techniczne i dyskusje eksperckie

Chińscy badacze aktywnie pracują nad technicznymi aspektami bezpieczeństwa AI. W ostatnim czasie opublikowano prace dotyczące m.in. łagodzenia „oszukańczego” zachowania modeli językowych poprzez mechanizmy samokontroli oraz badania nad „fałszowaniem oceny”, gdzie modele zmieniają swoje zachowanie, aby wydawać się bezpieczniejszymi podczas testów. Równie istotne są prace nad „oduczeniem” modeli szkodliwych treści, choć początkowe wyniki wskazują, że wiele metod nie usuwa wiedzy całkowicie.

W dyskursie publicznym pojawiają się również ważne głosy na temat cyberbezpieczeństwa. Oficjalna wypowiedź wskazuje, że choć duże modele językowe ułatwiają wykrywanie luk, wprowadzają też nowe zagrożenia, co wymaga podejścia „zwalczania AI przez AI”. Ponadto, debatują się nad balansem między rozwojem otwartego oprogramowania AI a kwestiami bezpieczeństwa. Eksperci proponują ramy prawne, które uzasadniałyby wyłączenia odpowiedzialności dla otwartych modeli, podkreślając ich wartość publiczną, przejrzystość i strategiczne znaczenie. To pokazuje, że chińskie władze są świadome ryzyka niewłaściwego użycia, jednocześnie dążąc do wykorzystania korzyści płynących z otwartości w AI.

Wspomniane wydarzenia malują obraz Chin jako aktywnego i złożonego gracza na scenie bezpieczeństwa AI. Kraj ten dąży do zbudowania własnego, spójnego systemu regulacyjnego, jednocześnie starając się wpływać na globalne standardy i budować sojusze, zwłaszcza w ramach globalnego południa. W tle pozostaje napięcie między otwartą współpracą a dążeniem do ochrony własnych interesów narodowych.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *