Kalifornia reguluje AI – bezpieczeństwo przede wszystkim, innowacje niezagrożone?
Kalifornia przyjęła ustawę SB 53, regulującą sektor sztucznej inteligencji. Zdaniem Adama Billena z Encode AI, ta regulacja dowodzi, że państwowe interwencje nie muszą dławić postępu w AI.
SB 53 wymaga od dużych laboratoriów AI transparentności w kwestii protokołów bezpieczeństwa, szczególnie w obszarach zapobiegania wykorzystaniu modeli do cyberataków na infrastrukturę krytyczną lub tworzenia broni biologicznej. Firmy mają trzymać się tych protokołów, a nadzór sprawować będzie Office of Emergency Services.
Billen podkreśla, że firmy w dużej mierze już stosują się do tych wymagań, prowadząc testy bezpieczeństwa i udostępniając karty modeli. Jednakże, presja konkurencyjna może prowadzić do obniżania standardów, co czyni takie regulacje kluczowymi. OpenAI przyznało, że może dostosować swoje wymogi bezpieczeństwa, jeśli konkurencja wprowadzi na rynek system wysokiego ryzyka bez podobnych zabezpieczeń. Ustawa ma temu zapobiegać.
W przeciwieństwie do poprzedniej wersji ustawy (SB 1047), zawetowanej przez gubernatora Newsoma, SB 53 spotkała się z mniejszym oporem. Jednak w Dolinie Krzemowej panuje przekonanie, że jakiekolwiek regulacje AI hamują postęp i osłabiają pozycję USA w wyścigu z Chinami.
Firmy jak Meta i fundusze VC pompują miliony w super PAC, aby wspierać polityków przychylnych AI. Wcześniej forsowały moratorium na regulacje AI przez 10 lat. Encode AI zwalczał tę propozycję, ale walka trwa nadal. Senator Ted Cruz próbuje przeforsować ustawę SANDBOX, która umożliwi firmom AI uzyskanie zwolnień z federalnych regulacji na 10 lat.
Federalizm czy centralizacja kontroli?
Billen ostrzega, że wąsko ukierunkowane federalne regulacje AI mogą zniweczyć federalizm w kluczowej dziedzinie technologii. Uważa, że ustawa SB 53 jest dopasowana do konkretnego zakresu problemów i nie powinna zastępować wszystkich stanowych inicjatyw dotyczących AI.
Choć wyścig z Chinami jest ważny, likwidowanie stanowych regulacji AI (dotyczących np. deepfake’ów, algorytmicznej dyskryminacji, bezpieczeństwa dzieci) nie jest właściwą drogą. Billen argumentuje, że prawdziwym celem powinno być kontrolowanie eksportu zaawansowanych chipów do Chin, a nie blokowanie stanowych inicjatyw.
Ustawa Chip Security Act ma zapobiegać transferowi zaawansowanych chipów AI do Chin poprzez kontrolę eksportu. Niektóre firmy technologiczne, w tym OpenAI i Nvidia, wyrażają obawy co do skuteczności tych działań.
Billen spekuluje, że Nvidia ma silny interes finansowy w kontynuowaniu sprzedaży chipów do Chin, a OpenAI może unikać naciskania na kontrolę eksportu, aby utrzymać dobre relacje z dostawcami takimi jak Nvidia.
Administracja Trumpa wprowadziła niekonsekwentne rozwiązania. Po rozszerzeniu zakazu eksportu chipów AI do Chin, wycofała się z niego, umożliwiając Nvidii i AMD sprzedaż niektórych chipów w zamian za 15% przychodów.
Billen podsumowuje, że SB 53 jest przykładem demokracji w działaniu, gdzie przemysł i decydenci współpracują, aby osiągnąć kompromis. Ten proces jest „brzydki i chaotyczny”, ale stanowi fundament systemu politycznego i gospodarczego kraju.
„SB 53 jest jednym z najlepszych dowodów na to, że to jeszcze może działać” – konkluduje Billen.