BezpieczeństwoPolitykaPrawo

Anthropic popiera kalifornijską ustawę o bezpieczeństwie AI, SB 53. Czy to przełom w regulacjach?

W poniedziałek firma Anthropic ogłosiła poparcie dla projektu ustawy SB 53, autorstwa senatora stanu Kalifornia, Scotta Wienera. Ustawa ta wprowadza pionierskie w skali kraju wymogi dotyczące transparentności dla podmiotów rozwijających najpotężniejsze modele sztucznej inteligencji. Poparcie Anthropic stanowi istotny sukces dla SB 53, zwłaszcza w kontekście lobbingu ze strony dużych organizacji technologicznych, takich jak CTA (Consumer Technology Association) i Chamber for Progress, które sprzeciwiają się ustawie.

„Uważamy, że kwestie bezpieczeństwa AI powinny być regulowane na szczeblu federalnym, a nie poprzez mozaikę przepisów stanowych. Niemniej jednak, postęp w dziedzinie sztucznej inteligencji nie poczeka na osiągnięcie konsensusu w Waszyngtonie” – argumentuje Anthropic w swoim wpisie na blogu. „Pytanie nie brzmi, czy potrzebujemy regulacji AI, ale czy wypracujemy je w sposób przemyślany już dziś, czy będziemy reagować dopiero jutro. SB 53 oferuje solidną ścieżkę do tego pierwszego.”

Jeśli SB 53 zostanie przyjęta, nałoży na deweloperów modeli AI, takich jak OpenAI, Anthropic, Google i xAI, obowiązek opracowania ram bezpieczeństwa oraz publikowania raportów dotyczących bezpieczeństwa i zabezpieczeń przed wdrożeniem zaawansowanych modeli. Ustawa wprowadza również ochronę dla sygnalistów zgłaszających obawy dotyczące bezpieczeństwa.

Ograniczenie ryzyka

Ustawa senatora Wienera koncentruje się na ograniczeniu wykorzystania modeli AI w sposób prowadzący do „ryzyka katastrofalnego”, definiowanego jako śmierć co najmniej 50 osób lub szkody przekraczające miliard dolarów. SB 53 koncentruje się na najbardziej ekstremalnych zagrożeniach związanych z AI, takich jak wykorzystanie modeli do tworzenia broni biologicznej lub przeprowadzania cyberataków, a nie na bliższych perspektywach, takich jak deepfake’i czy tendencyjne odpowiedzi.

Przyszłość ustawy

Senat Kalifornii zatwierdził wcześniejszą wersję SB 53, ale przed przekazaniem jej do podpisu gubernatora konieczne jest jeszcze ostateczne głosowanie. Gubernator Gavin Newsom do tej pory nie zajął stanowiska w sprawie ustawy, chociaż zawetował poprzedni projekt senatora Wienera dotyczący bezpieczeństwa AI, SB 1047.

Projekty regulujące deweloperów modeli AI spotykają się z silnym oporem zarówno ze strony Doliny Krzemowej, jak i byłej administracji Trumpa, które argumentują, że takie działania mogą ograniczyć innowacyjność Stanów Zjednoczonych w wyścigu z Chinami. Inwestorzy tacy jak Andreessen Horowitz i Y Combinator również sprzeciwiali się SB 1047, a administracja Trumpa wielokrotnie groziła zablokowaniem stanom możliwości uchwalania regulacji dotyczących AI.

Argumenty przeciw regulacjom stanowym

Jednym z najczęstszych argumentów przeciwko ustawom o bezpieczeństwie AI jest twierdzenie, że kwestie te powinny być regulowane na szczeblu federalnym. Matt Perault i Jai Ramaswamy z Andreessen Horowitz argumentowali, że wiele stanowych projektów ustaw dotyczących AI ryzykuje naruszenie klauzuli handlowej Konstytucji, która ogranicza możliwość uchwalania przez rządy stanowe przepisów wykraczających poza ich granice i ingerujących w handel międzystanowy.

Branża technologiczna nie może czekać

Współzałożyciel firmy Anthropic, Jack Clark, twierdzi, że branża technologiczna będzie w najbliższych latach budować potężne systemy AI i nie może czekać na działania rządu federalnego. „Od dawna mówiliśmy, że preferowalibyśmy standard federalny” – powiedział Clark. „Jednak w jego braku, SB 53 tworzy solidny plan regulacji AI, którego nie można ignorować.”

Dyrektor ds. globalnych OpenAI, Chris Lehane, wysłał w sierpniu list do gubernatora Newsoma, w którym argumentował, że nie powinien on przyjmować żadnych regulacji dotyczących AI, które mogłyby wypchnąć startupy z Kalifornii – chociaż list nie wymieniał SB 53 z nazwy.

Były szef badań nad polityką OpenAI, Miles Brundage, stwierdził, że list Lehane’a jest „pełen wprowadzających w błąd bzdur na temat SB 53 i polityki AI w ogóle”. Warto zauważyć, że SB 53 ma na celu regulację wyłącznie największych firm AI – w szczególności tych, które wygenerowały przychód brutto przekraczający 500 milionów dolarów.

Pomimo krytyki, eksperci twierdzą, że SB 53 jest bardziej umiarkowanym podejściem niż poprzednie projekty ustaw dotyczące bezpieczeństwa AI. Dean Ball, stypendysta Foundation for American Innovation i były doradca Białego Domu ds. polityki AI, stwierdził, że SB 53 ma obecnie duże szanse na wejście w życie. Ball, który krytykował SB 1047, powiedział, że autorzy SB 53 „wykazali szacunek dla realiów technicznych”, a także „miarę powściągliwości legislacyjnej”.

Senator Wiener wcześniej powiedział, że na SB 53 duży wpływ miał panel ekspertów powołany przez gubernatora Newsoma – współkierowany przez badaczkę ze Stanford i współzałożycielkę World Labs, Fei-Fei Li – aby doradzać Kalifornii w kwestii regulacji AI.

Istniejące standardy bezpieczeństwa

Większość laboratoriów AI ma już pewną wersję wewnętrznej polityki bezpieczeństwa, której wymaga SB 53. OpenAI, Google DeepMind i Anthropic regularnie publikują raporty bezpieczeństwa dla swoich modeli. Jednak firmy te nie są zobowiązane do tego przez nikogo poza sobą i czasami nie dotrzymują swoich własnych zobowiązań w zakresie bezpieczeństwa. SB 53 ma na celu ustanowienie tych wymagań jako prawa stanowego, z konsekwencjami finansowymi w przypadku nieprzestrzegania przez laboratorium AI.

We wrześniu kalifornijscy prawodawcy zmienili SB 53, usuwając z ustawy część, która wymagała od deweloperów modeli AI poddawania się audytom stron trzecich. Firmy technologiczne walczyły z tego typu audytami stron trzecich w innych sporach dotyczących polityki AI, argumentując, że są one nadmiernie uciążliwe.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *