Kalifornia ponownie naciska na przejrzystość AI: czy zmieniona ustawa SB 53 odniesie sukces?
Kalifornijski senator Scott Wiener po raz kolejny stawia na agendzie kwestię regulacji sztucznej inteligencji, wprowadzając poprawki do projektu ustawy SB 53. Nowe zapisy stanowią próbę pogodzenia szybkiego rozwoju branży AI z rosnącymi obawami dotyczącymi jej bezpieczeństwa i transparentności. Jeżeli ustawa zostanie przegłosowana, Kalifornia stanie się pierwszym stanem, który nałoży znaczące wymogi jawności na wiodących deweloperów AI, takich jak OpenAI, Google, Anthropic czy xAI.
Historia prób regulacji AI w Kalifornii jest burzliwa. Poprzednia inicjatywa senatora Wienera, ustawa SB 1047, spotkała się z ostrą krytyką gigantów technologicznych Doliny Krzemowej i ostatecznie została zawetowana przez gubernatora Gavina Newsoma. Ówczesne zastrzeżenia dotyczyły potencjalnego hamowania innowacji. W odpowiedzi na te zawirowania, gubernator Newsom powołał grupę ekspertów, w tym wybitną badaczkę AI z Uniwersytetu Stanforda i współzałożycielkę World Labs, Fei-Fei Li. Ich rekomendacje, opublikowane niedawno, jednoznacznie wskazywały na potrzebę „wymogów wobec branży, aby publikowała informacje o swoich systemach” w celu stworzenia „solidnego i przejrzystego środowiska dowodowego”. Biuro senatora Wienera potwierdziło, że poprawki do SB 53 zostały mocno zainspirowane tym raportem.
„Ustawa wciąż jest w przygotowaniu i nie mogę się doczekać współpracy z wszystkimi zainteresowanymi stronami w nadchodzących tygodniach, aby udoskonalić tę propozycję w najbardziej naukowo rzetelne i sprawiedliwe prawo, jakie może być” – powiedział senator Wiener w komunikacie prasowym. Zmodyfikowana SB 53 ma na celu osiągnięcie równowagi, której brakowało w SB 1047, czyli wprowadzenie znaczących wymogów transparentności dla największych deweloperów AI, nie hamując jednocześnie wzrostu kalifornijskiego sektora sztucznej inteligencji.
Nathan Calvin, wiceprezes ds. spraw stanowych w organizacji non-profit Encode, zajmującej się bezpieczeństwem AI, podkreśla wagę tych zmian. „Mój zarząd i inne organizacje mówiły o tych obawach od pewnego czasu” – zauważył w wywiadzie dla TechCrunch. „Wymaganie od firm, aby wyjaśniły społeczeństwu i rządowi, jakie środki podejmują w celu rozwiązania tych zagrożeń, wydaje się absolutnym minimum i rozsądnym krokiem”.
Warto zwrócić uwagę na kluczowe różnice w stosunku do poprzednich propozycji. SB 53 nie nakłada na twórców modeli AI odpowiedzialności za szkody wyrządzone przez ich systemy, co było punktem spornym w SB 1047. Ponadto, projekt ustawy został tak skonstruowany, aby nie obciążać startupów i badaczy, którzy dostosowują modele AI od czołowych deweloperów lub korzystają z modeli open source. To świadome ustępstwo ma na celu ochronę mniejszych podmiotów w ekosystemie AI. Ustawa przewiduje również ochronę dla sygnalistów, czyli pracowników laboratoriów AI, którzy zgłaszają „krytyczne ryzyko” związane z technologią swojej firmy. Ryzyko to jest zdefiniowane jako przyczynianie się do śmierci lub obrażeń ponad 100 osób, lub szkód o wartości przekraczającej miliard dolarów. Dodatkowo, SB 53 ma na celu stworzenie CalCompute, publicznego klastra obliczeń chmurowych wspierającego startupy i badaczy rozwijających AI na dużą skalę.
Po wprowadzeniu poprawek, SB 53 trafi teraz do kalifornijskiej komisji ds. prywatności i ochrony konsumentów, a następnie będzie musiała przejść przez kilka innych organów legislacyjnych, zanim trafi na biurko gubernatora Newsoma. Jednocześnie, na wschodnim wybrzeżu Stanów Zjednoczonych, gubernator Nowego Jorku Kathy Hochul rozważa podobną ustawę o bezpieczeństwie AI, RAISE Act, która również wymagałaby od dużych deweloperów AI publikowania raportów dotyczących bezpieczeństwa.
Geoff Ralston, były prezes Y Combinator, zaznacza, że kwestia bezpieczeństwa AI nie powinna budzić kontrowersji, lecz być fundamentem jej rozwoju. „Kongres powinien przewodzić, żądając przejrzystości i odpowiedzialności od firm budujących modele graniczne” – stwierdził w oświadczeniu dla TechCrunch. „Ale bez poważnych działań federalnych w zasięgu wzroku, stany muszą podjąć działania. Kalifornijska SB 53 to przemyślany, dobrze skonstruowany przykład stanowego przywództwa”.
Dotychczasowe próby pozyskania poparcia dla państwowych wymogów transparentności ze strony firm AI napotkały na opór. Chociaż Anthropic ogólnie poparł potrzebę zwiększenia przejrzystości i wyraził umiarkowany optymizm wobec rekomendacji kalifornijskiej grupy politycznej ds. AI, firmy takie jak OpenAI, Google i Meta były bardziej oporne. Wiodący deweloperzy generalnie publikują raporty bezpieczeństwa, ale ich spójność w ostatnich miesiącach pozostawia wiele do życzenia. Przykładem jest Google, które nie opublikowało raportu bezpieczeństwa dla swojego najnowszego modelu Gemini 2.5 Pro do kilku miesięcy po jego udostępnieniu. OpenAI również zrezygnowało z publikacji raportu dla modelu GPT-4.1, który późniejsze badania stron trzecich sugerowały, że może być mniej zgodny z wcześniejszymi wersjami.
SB 53, choć stanowi złagodzoną wersję poprzednich projektów, nadal może zmusić firmy AI do publikowania większej ilości informacji niż ma to miejsce obecnie. Pozostaje obserwować, czy tym razem Senator Wienerowi uda się skutecznie przetestować granice regulacji w dynamicznym świecie sztucznej inteligencji.
