AdministracjaBezpieczeństwoPrawo

Kalifornia wyznacza nowe standardy bezpieczeństwa AI. Czy regulacje zdławią innowacje?

Gubernator Kalifornii, Gavin Newsom, podpisał ustawę SB 53, dotyczącą bezpieczeństwa i transparentności w obszarze sztucznej inteligencji. Adam Billen, wiceprezes Encode AI, organizacji działającej na rzecz młodzieży, uważa to za dowód na to, że regulacje stanowe nie muszą hamować rozwoju AI. Jego zdaniem, politycy zdają sobie sprawę z konieczności działania i potrafią tworzyć przepisy, które chronią innowacje, jednocześnie zapewniając bezpieczeństwo produktów.

SB 53 to pierwsza tego typu ustawa w Stanach Zjednoczonych. Nakłada na duże laboratoria AI obowiązek transparentności w zakresie protokołów bezpieczeństwa, szczególnie w odniesieniu do zapobiegania wykorzystaniu modeli AI do cyberataków na infrastrukturę krytyczną lub tworzenia broni biologicznej. Firmy muszą przestrzegać tych protokołów, a nadzór sprawuje Office of Emergency Services.

Billen zauważa, że wiele firm już stosuje procedury, których wymaga ustawa, takie jak testowanie bezpieczeństwa modeli i udostępnianie kart modeli. Jednakże, presja konkurencyjna może prowadzić do obniżania standardów bezpieczeństwa. OpenAI, na przykład, publicznie zadeklarowało możliwość „dostosowania” swoich wymogów bezpieczeństwa, jeśli konkurencyjne laboratorium wypuści system wysokiego ryzyka bez podobnych zabezpieczeń. SB 53 ma temu zapobiec, wymuszając dotrzymywanie obietnic dotyczących bezpieczeństwa, nawet pod presją finansową.

W przeciwieństwie do poprzedniej wersji ustawy (SB 1047), zawetowanej przez Newsoma, SB 53 spotkała się z mniejszym sprzeciwem. Mimo to, w Dolinie Krzemowej i wśród laboratoriów AI panuje przekonanie, że regulacje AI są szkodliwe dla postępu i osłabią pozycję USA w wyścigu z Chinami. Giganci tacy jak Meta, fundusze VC (Andreessen Horowitz) i prezes OpenAI, Greg Brockman, inwestują setki milionów dolarów w super PACs, aby wspierać polityków przychylnych AI w wyborach stanowych. Wcześniej lobbowali za moratorium na regulacje AI, które zakazywałoby stanom regulowania tej dziedziny przez 10 lat.

Organizacja Encode AI zrzesza ponad 200 podmiotów, które sprzeciwiają się takiemu moratorium. Senator Ted Cruz promuje federalne przejęcie kontroli nad regulacjami AI. Zaproponował ustawę SANDBOX Act, która umożliwia firmom AI ubieganie się o zwolnienia z niektórych przepisów federalnych na okres do 10 lat. Billen spodziewa się również, że wkrótce pojawi się projekt ustawy ustanawiającej federalny standard AI, który pod pozorem kompromisu, w rzeczywistości unieważni przepisy stanowe.

Według Billena, wąsko ukierunkowane przepisy federalne dotyczące AI mogą zniweczyć ideę federalizmu w odniesieniu do najważniejszej technologii naszych czasów. Zaznacza, że regulacje stanowe skupiają się głównie na deepfake’ach, transparentności, dyskryminacji algorytmicznej, bezpieczeństwie dzieci i wykorzystaniu AI przez organy rządowe. Jego zdaniem, ustawy takie jak SB 53 nie przeszkodzą w wyścigu z Chinami w dziedzinie AI i uważa, że twierdzenie, że jest inaczej, jest intelektualnie nieuczciwe. Billen podkreśla, że jeśli celem jest pokonanie Chin w wyścigu AI, należy skupić się na kontroli eksportu i zapewnieniu amerykańskim firmom dostępu do chipów. Jednakże branża nie dąży do tego.

Billen wskazuje na sprzeczne sygnały płynące z administracji Trumpa, która najpierw rozszerzyła zakaz eksportu zaawansowanych chipów AI do Chin, a następnie wycofała się z niego, zezwalając Nvidii i AMD na sprzedaż niektórych chipów w zamian za 15% przychodów. Dostrzega on hipokryzję w dążeniu do zabicia stanowych regulacji przy jednoczesnym braku realnych działań na poziomie federalnym.

Adam Billen podsumowuje, że SB 53 jest przykładem demokracji w działaniu, gdzie przemysł i politycy współpracują, aby osiągnąć porozumienie. Uważa, że „ten proces demokracji i federalizmu jest fundamentem naszego kraju i systemu gospodarczego” i wyraża nadzieję, że będzie on kontynuowany.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *