Kalifornijski senator Scott Wiener walczy o ujawnienie zagrożeń związanych ze sztuczną inteligencją
Scott Wiener, senator stanu Kalifornia, nie ustaje w wysiłkach mających na celu uregulowanie kwestii bezpieczeństwa związanego z rozwojem sztucznej inteligencji. Po burzliwym roku 2024, kiedy to jego projekt ustawy SB 1047 spotkał się z ostrą krytyką ze strony Doliny Krzemowej i ostatecznie został zawetowany przez gubernatora Gavina Newsoma, Wiener powraca z nową propozycją – SB 53.
Tym razem sytuacja wygląda inaczej. Ustawa SB 53, która w najbliższych tygodniach trafi na biurko gubernatora Newsoma, zyskała poparcie, a przynajmniej nie spotyka się z tak silnym oporem ze strony gigantów technologicznych. Firma Anthropic publicznie poparła SB 53, a Meta wyraziła swoje wsparcie dla regulacji AI, które równoważą innowacje i kwestie bezpieczeństwa. Dean Ball, były doradca Białego Domu ds. polityki AI, uważa SB 53 za „zwycięstwo rozsądnych głosów” i przewiduje, że ustawa zostanie podpisana.
Co zakłada SB 53?
SB 53 nakłada na największe firmy zajmujące się sztuczną inteligencją, takie jak OpenAI, Anthropic, xAI i Google, obowiązek publikowania raportów dotyczących bezpieczeństwa ich najbardziej zaawansowanych modeli AI. Obecnie firmy te nie mają obowiązku ujawniania, w jaki sposób testują swoje systemy AI. Chociaż wiele laboratoriów AI dobrowolnie publikuje raporty na temat potencjalnego wykorzystania ich modeli do tworzenia broni biologicznej lub cyberataków, praktyki te nie są spójne ani obowiązkowe.
Ustawa wymaga od wiodących laboratoriów AI – o przychodach przekraczających 500 milionów dolarów – publikowania raportów bezpieczeństwa dla swoich najpotężniejszych modeli. SB 53 koncentruje się na najpoważniejszych zagrożeniach związanych z AI, takich jak możliwość przyczynienia się do śmierci ludzi, cyberataków i tworzenia broni chemicznej. Ponadto, ustawa tworzy chronione kanały dla pracowników laboratoriów AI, umożliwiając im zgłaszanie obaw dotyczących bezpieczeństwa urzędnikom państwowym, a także ustanawia stanowy klaster obliczeniowy CalCompute, który ma zapewnić zasoby badawcze AI poza dużymi firmami technologicznymi.
Dlaczego SB 53 ma większe szanse na sukces?
Jednym z powodów większej popularności SB 53 jest jej mniej restrykcyjny charakter w porównaniu do SB 1047. Podczas gdy SB 1047 czyniła firmy AI odpowiedzialnymi za szkody wyrządzone przez ich modele, SB 53 koncentruje się na sprawozdawczości i przejrzystości. Ponadto, SB 53 dotyczy tylko największych firm technologicznych, a nie startupów.
Mimo to, wielu przedstawicieli branży technologicznej uważa, że regulacja AI powinna leżeć w gestii rządu federalnego. OpenAI argumentuje, że laboratoria AI powinny podlegać jedynie standardom federalnym. Z kolei firma venture capital Andreessen Horowitz sugeruje, że niektóre kalifornijskie ustawy mogą naruszać klauzulę o handlu międzystanowym, która zabrania stanom ograniczania tego handlu.
Wiener: Stany muszą wkroczyć
Senator Wiener nie wierzy w zdolność rządu federalnego do uchwalenia skutecznych regulacji dotyczących bezpieczeństwa AI, dlatego uważa, że stany muszą wkroczyć. Jego zdaniem administracja Trumpa została „przechwycona” przez branżę technologiczną, a próby blokowania stanowych przepisów AI są formą nagradzania przez Trumpa swoich darczyńców.
W wywiadzie dla TechCrunch, Wiener podkreślił, że celem jego działań jest zapewnienie, aby technologia AI przynosiła korzyści ludzkości, minimalizując jednocześnie ryzyko. Podkreślił również, że nie ufa branży technologicznej w kwestii samoregulacji i że konieczne są rozsądne regulacje w celu ochrony interesu publicznego.
Pytany o to, dlaczego SB 53 koncentruje się na najpoważniejszych zagrożeniach, takich jak śmierć i cyberataki, Wiener wyjaśnił, że ustawa ma na celu rozwiązanie konkretnego problemu zidentyfikowanego przez osoby pracujące w branży AI. Dodał, że zdaje sobie sprawę z różnorodnych zagrożeń związanych z AI, ale SB 53 ma na celu skupienie się na katastrofalnych scenariuszach.
Wiener wyraził również przekonanie, że systemy AI nie są z natury bezpieczne i że istnieją ludzie, którzy chcieliby wykorzystać je do szkodliwych celów. Podkreślił, że należy utrudnić złym aktorom powodowanie poważnych szkód i że osoby rozwijające modele AI również powinny do tego dążyć.
Teraz wszystko w rękach gubernatora Newsoma. Czy Kalifornia stanie się pionierem w regulacji AI, czy też ustąpi pola rządowi federalnemu?
