PolitykaPrawo

Starcie o regulacje AI: federalne ambicje kontra stanowa autonomia

Debata wokół regulacji sztucznej inteligencji w Stanach Zjednoczonych wkracza w fazę decydującą. Centralnym punktem sporu nie jest już kwestia samej potrzeby regulacji, lecz to, kto będzie sprawował nad nimi jurysdykcję – rząd federalny czy poszczególne stany. Brak spójnych federalnych standardów bezpieczeństwa konsumentów w obszarze AI skłonił stany do podjęcia własnych inicjatyw legislacyjnych, które mają chronić swoich mieszkańców przed potencjalnymi zagrożeniami.

Kalifornia, z ustawą SB-53 dotyczącą bezpieczeństwa AI, oraz Teksas, z Prawem o Odpowiedzialnym Zarządzaniu AI, zakazującym celowego niewłaściwego użycia systemów sztucznej inteligencji, to tylko niektóre przykłady stanowych działań. Giganci technologiczni i dynamicznie rozwijające się startupy z Doliny Krzemowej argumentują, że fragmentaryczne prawo stanowe tworzy niespójny i trudny do wdrożenia system, który hamuje innowacje. Josh Vlasto, współzałożyciel pro-AI PAC Leading the Future, wyraził obawy, że takie podejście spowolni USA w wyścigu technologicznym z Chinami.

Działania federalne

Branża technologiczna wraz z jej wpływowymi przedstawicielami w Białym Domie naciska na wprowadzenie jednolitego standardu krajowego lub całkowity brak regulacji, opowiadając się za samoregulacją. Pojawiły się również inicjatywy mające na celu uniemożliwienie stanom uchwalania własnych przepisów dotyczących AI. Doniesienia wskazują, że ustawodawcy Izby Reprezentantów rozważają wykorzystanie ustawy o autoryzacji obrony narodowej (NDAA) do blokowania stanowych regulacji AI. Podobne tendencje widoczne są w ujawnionym projekcie rozporządzenia wykonawczego Białego Domu, który również sugeruje silne dążenie do preempcji stanowych wysiłków regulacyjnych.

Taka wszechstronna preempcja, odbierająca stanom prawo do regulowania AI, spotkała się z oporem w Kongresie, który na początku roku w zdecydowanej większości głosował przeciwko podobnemu moratorium. Wielu ustawodawców argumentuje, że bez federalnego standardu, blokowanie stanów pozostawi konsumentów bez ochrony, a firmy technologiczne będą mogły działać bez odpowiedniego nadzoru.

Wyzwania dla krajowego standardu

W odpowiedzi na tę potrzebę, kongresmen Ted Lieu (D-CA) wraz z dwupartyjną komisją Izby Reprezentantów ds. AI, przygotowują pakiet federalnych ustaw mających na celu ochronę konsumentów w obszarach takich jak oszustwa, opieka zdrowotna, przejrzystość, bezpieczeństwo dzieci i ryzyko katastrofalne. Uchwalenie tak obszernej ustawy może potrwać miesiące, jeśli nie lata, co podkreśla pilność i kontrowersyjny charakter obecnych prób ograniczenia autonomii stanów.

W ostatnich tygodniach nasiliły się działania mające na celu zablokowanie stanowych regulacji. Przewodniczący większości Izby Reprezentantów, Steve Scalise (R-LA), poinformował, że rozważane jest wprowadzenie do NDAA zapisów uniemożliwiających stanom regulowanie AI. Negocjacje koncentrują się na zawężeniu zakresu preempcji, potencjalnie zachowując autonomię stanów w kwestiach takich jak bezpieczeństwo dzieci czy przejrzystość.

Wpływ przemysłu i kontrowersje

Ujawniony projekt rozporządzenia wykonawczego Białego Domu zakładał utworzenie „grupy zadaniowej ds. sporów sądowych AI”, mającej kwestionować stanowe ustawy w sądach, zlecać agencjom ocenę „uciążliwych” przepisów stanowych oraz wspierać komisje FCC i FTC w tworzeniu krajowych standardów, które zastąpiłyby regulacje stanowe. Projekt przewidywał również, że David Sacks, doradca Trumpa ds. AI i kryptowalut, miałby wspólnie kierować tworzeniem jednolitych ram prawnych, co dałoby mu znaczący wpływ na politykę AI, wykraczający poza typową rolę Biura Polityki Naukowej i Technologicznej Białego Domu.

Sacks publicznie opowiadał się za blokowaniem regulacji stanowych i utrzymaniem minimalnego nadzoru federalnego, preferując samoregulację branżową w celu „maksymalizacji wzrostu”. Jego stanowisko odzwierciedla poglądy znacznej części przemysłu AI. W ostatnich miesiącach pojawiło się kilka PAC-ów pro-AI, przeznaczających miliony dolarów na wybory lokalne i stanowe, aby sprzeciwić się kandydatom wspierającym regulacje AI. Leading the Future, wspierany przez Andreessen Horowitz, OpenAI i Palantir, zebrał ponad 100 milionów dolarów i rozpoczął kampanię o wartości 10 milionów dolarów, naciskając na Kongres, aby opracował krajową politykę AI, która zastąpi ustawy stanowe.

Nathan Leamer, dyrektor wykonawczy Build American AI, argumentuje, że istniejące przepisy, takie jak te dotyczące oszustw czy odpowiedzialności za produkt, są wystarczające do radzenia sobie ze szkodami wywołanymi przez AI. Podczas gdy przepisy stanowe często dążą do zapobiegania problemom, Leamer preferuje podejście reaktywne: niech firmy działają szybko, a problemy będą rozwiązywane w sądzie później.

Stanowe laboratoria demokracji a wolne tempo Kongresu

Alex Bores, członek Zgromadzenia Nowego Jorku i sponsor ustawy RAISE Act, wymagającej od dużych laboratoriów AI planów bezpieczeństwa, uważa, że chociaż popiera krajową politykę AI, to stany mogą szybciej reagować na pojawiające się ryzyka. Do listopada 2025 roku 38 stanów przyjęło ponad 100 ustaw związanych z AI, głównie dotyczących deepfake’ów, przejrzystości i ujawniania informacji oraz wykorzystania AI przez rząd.

Aktywność w Kongresie dowodzi, że jego tempo działania jest znacznie wolniejsze niż stanów. Setki projektów ustaw dotyczących AI zostały zgłoszone, ale tylko nieliczne zostały przyjęte. Kongresmen Lieu, pomimo zgłoszenia wielu projektów, tylko jeden z nich stał się prawem.

Ponad 200 ustawodawców podpisało list otwarty sprzeciwiający się preempcji w NDAA, argumentując, że „stany służą jako laboratoria demokracji”, które muszą „zachować elastyczność w stawianiu czoła nowym wyzwaniom cyfrowym w miarę ich pojawiania się”. Prawie 40 prokuratorów generalnych stanów również wysłało list otwarty, sprzeciwiając się zakazowi stanowych regulacji AI.

Eksperci ds. cyberbezpieczeństwa, Bruce Schneier i Nathan E. Sanders, autorzy książki „Rewiring Democracy: How AI Will Transform Our Politics, Government, and Citizenship”, twierdzą, że obawy o fragmentaryczne prawo są przesadzone. Firmy AI już teraz dostosowują się do bardziej rygorystycznych przepisów UE, a większość branż potrafi działać w ramach różnych przepisów stanowych. Ich zdaniem prawdziwym motywem jest unikanie odpowiedzialności.

Lieu pracuje nad ponad 200-stronicową ustawą, którą ma nadzieję wprowadzić w grudniu. Projekt obejmuje szeroki zakres kwestii, takich jak kary za oszustwa, ochrona przed deepfake’ami, ochrona sygnalistów, zasoby obliczeniowe dla środowiska akademickiego oraz obowiązkowe testowanie i ujawnianie informacji dla firm zajmujących się dużymi modelami językowymi. Uważa, że jego projekt ustawy, chociaż mniej restrykcyjny niż niektóre inne propozycje, ma większe szanse na uchwalenie w obecnym, podzielonym politycznie środowisku, dążąc do osiągnięcia kompromisu, który może zyskać poparcie obu partii.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *