Kalifornia próbuje regulować Big AI. Czy SB 53 ma szansę na sukces?
Kalifornijski senat dał zielone światło dla SB 53, nowej ustawy regulującej bezpieczeństwo AI. Teraz decyzja należy do gubernatora Gavina Newsoma – podpis albo weto. To nie pierwszy raz, kiedy stan Kalifornia mierzy się z regulacjami dotyczącymi sztucznej inteligencji. W zeszłym roku Newsom zawetował inną ustawę, również autorstwa senatora Scotta Wienera. Czym różni się SB 53? Jest bardziej precyzyjna i skupia się na dużych graczach – firmach AI z rocznym przychodem powyżej 500 milionów dolarów.
O SB 53 dyskutowano w podcaście TechCrunch Equity. Max Zeff uważa, że ta wersja ma większe szanse na wejście w życie, właśnie ze względu na skoncentrowanie się na dużych firmach. Poparła ją nawet firma Anthropic, zajmująca się rozwojem AI.
O co chodzi w SB 53?
Zeff podkreśla, że firmy AI rosną w siłę i stają się jednymi z najpotężniejszych na świecie. SB 53 ma być mechanizmem kontrolnym, którego brakowało w ostatnich dekadach. Ustawa nakłada na laboratoria AI obowiązek publikowania raportów bezpieczeństwa ich modeli. W razie incydentu, firmy będą musiały zgłaszać to rządowi. Dodatkowo, pracownicy uzyskają kanał do zgłaszania obaw bez obawy o konsekwencje, nawet jeśli podpisali umowy o zachowaniu poufności (NDA).
Dlaczego Kalifornia?
Kirsten Korosec zwraca uwagę na kluczową rolę Kalifornii. Praktycznie każda duża firma AI ma tu swoją siedzibę lub znaczącą obecność. To w Kalifornii bije serce innowacji w dziedzinie sztucznej inteligencji.
Szczegóły ustawy budzą pytania
Ustawa zawiera pewne wyjątki i wyłączenia. Zeff wyjaśnia, że SB 53 ma nie dotyczyć małych startupów, aby nie zaszkodzić kalifornijskiemu ekosystemowi innowacji. Regulacje dotyczą firm generujących ponad 500 milionów dolarów przychodu z modeli AI, celując w takie giganty jak OpenAI czy Google DeepMind. Mniejsze firmy również będą musiały udostępniać pewne informacje o bezpieczeństwie, choć w ograniczonym zakresie.
Kontekst polityczny
Anthony Ha zwraca uwagę na szerszy kontekst regulacji AI. Administracja federalna przyjęła postawę braku regulacji, co może prowadzić do konfliktów z poszczególnymi stanami, w tym z Kalifornią, które chcą wprowadzać własne przepisy. W przyszłości może dojść do sporów między stanami a rządem federalnym o kontrolę nad rozwojem i wdrażaniem sztucznej inteligencji.
