Bezpieczeństwo

Immunitet dla gigantów AI? OpenAI wspiera kontrowersyjną ustawę w Illinois

W sektorze sztucznej inteligencji następuje istotna zmiana optyki. OpenAI, lider branży z San Francisco, aktywnie popiera projekt ustawy SB 3444 w stanie Illinois, który de facto tworzy parasol ochronny dla laboratoriów rozwijających najbardziej zaawansowane modele AI. Proponowane przepisy zakładają ograniczenie odpowiedzialności cywilnej w sytuacjach, gdy technologia przyczyni się do zdarzeń o skali katastroficznej – takich jak śmierć ponad stu osób lub szkody materialne o wartości przekraczającej miliard dolarów.

Bezpiecznik dla innowacji czy unikanie odpowiedzialności?

Zgodnie z zapisami SB 3444, twórcy tak zwanych modeli frontierowych – definiowanych jako systemy, których trening kosztował ponad 100 milionów dolarów – zostaliby zwolnieni z odpowiedzialności za „krytyczne szkody”, o ile nie wykazano by im celowego działania lub rażącego niedbalstwa. Warunkiem uzyskania takiej ochrony jest regularne publikowanie raportów dotyczących bezpieczeństwa i transparentności na stronach internetowych firm.

Przedstawiciele OpenAI argumentują, że takie podejście pozwala skoncentrować się na redukcji realnych zagrożeń bez blokowania dostępu do innowacji. Jamie Radice, rzeczniczka firmy, podkreśla, że jednolite standardy stanowe pomagają uniknąć „legislacyjnego patchworku”, który mógłby spowolnić adopcję AI przez lokalne przedsiębiorstwa. Jednak dla ekspertów cytowanych przez branżowe media, jak choćby Scott Wisor z projektu Secure AI, propozycja ta idzie o krok za daleko, oferując korporacjom bezprecedensowy immunitet finansowy.

Sztuczna inteligencja przed sądem

Definicja „krytycznych szkód” obejmuje scenariusze prosto z technothrillerów: ułatwienie ataku biologicznego, chemicznego lub nuklearnego, a także sytuacje, w których model AI samoczynnie podejmuje działania noszące znamiona czynu zabronionego. W obecnym stanie prawnym kwestia odpowiedzialności za takie incydenty pozostaje w szarej strefie. Podczas gdy administracja centralna w USA wciąż zwleka z wprowadzeniem ogólnokrajowych ram regulacyjnych, poszczególne stany stają się poligonem doświadczalnym dla nowych przepisów.

Krytycy zwracają uwagę na pewien paradoks – Illinois dotychczas słynęło z restrykcyjnego podejścia do technologii, czego przykładem jest akt o prywatności danych biometrycznych z 2008 roku. Scott Wisor zauważa, że badania opinii publicznej wskazują na miażdżący opór obywateli wobec zwalniania firm z odpowiedzialności. Z drugiej strony, OpenAI ustami Caitlin Niedermeyer z zespołu Global Affairs, forsuje narrację o konieczności zachowania amerykańskiego przywództwa w globalnym wyścigu zbrojeń AI, co wpisuje się w szerszy trend Doliny Krzemowej.

Jednostkowe dramaty w cieniu wielkiej polityki

Choć SB 3444 skupia się na zdarzeniach masowych, problem szkodliwości AI jest już odmieniany przez wszystkie przypadki w sądach niższego szczebla. OpenAI mierzy się obecnie z pozwami rodzin, których dzieci ucierpiały na skutek niezdrowych interakcji z chatbotami. To pokazuje, że luki prawne dotyczą nie tylko hipotetycznego zagrożenia nuklearnego, ale codziennego wpływu algorytmów na psychikę i zdrowie użytkowników.

Pytanie o to, kto zapłaci za błędy maszyn, pozostaje otwarte. Czy innowacja faktycznie wymaga zdjęcia ciężaru odpowiedzialności z barku najbogatszych firm świata, czy może właśnie ich ogromne budżety powinny być gwarantem bezpieczeństwa dla społeczeństwa? Dyskusja w Illinois może wyznaczyć kierunek dla całego zachodniego świata.