Prawo

Unijne prawo AI: Regulacje, wyzwania i przyszłość innowacji

Unijne Rozporządzenie w Sprawie Sztucznej Inteligencji (AI Act), określane przez Komisję Europejską jako pierwsza na świecie kompleksowa ustawa o AI, wyłania się jako monumentalne przedsięwzięcie regulacyjne. Po latach intensywnych prac legislacyjnych, akt ten staje się rzeczywistością, wpływając na życie 450 milionów obywateli w 27 krajach członkowskich.

Implikacje AI Act wykraczają poza granice Unii. Przepisy dotyczą zarówno firm lokalnych, jak i zagranicznych, obejmując dostawców oraz użytkowników systemów AI. Jako przykład Komisja wskazuje na zastosowanie prawa zarówno do twórcy narzędzia do selekcji CV, jak i do banku, który takie narzędzie nabywa. To stwarza nową, ujednoliconą ramę prawną dla szerokiego spektrum zastosowań sztucznej inteligencji.

Geneza regulacji

Podobnie jak w przypadku innych aktów prawnych UE, AI Act ma na celu ustanowienie jednolitego środowiska prawnego dla sztucznej inteligencji na całym kontynencie. Taki wspólny system ma ułatwić swobodny przepływ towarów i usług opartych na AI, eliminując ryzyko rozbieżnych lokalnych regulacji. To z kolei ma stworzyć równe szanse dla wszystkich podmiotów i zwiększyć zaufanie do technologii, otwierając jednocześnie drzwi dla nowych, wschodzących firm.

Jednak ramy te, choć promują unifikację, nie są pozbawione rygoru. Pomimo relatywnie wczesnego etapu szerokiej adaptacji AI w większości sektorów, AI Act stawia wysokie wymagania co do tego, co sztuczna inteligencja powinna, a czego nie powinna robić dla społeczeństwa. To rodzi pytania o potencjalne spowolnienie innowacji w regionie.

Cel i wewnętrzne sprzeczności

Zgodnie z deklaracjami prawodawców, nadrzędnym celem aktu jest „promowanie przyjęcia AI zorientowanej na człowieka i godnej zaufania, przy jednoczesnym zapewnieniu wysokiego poziomu ochrony zdrowia, bezpieczeństwa, praw podstawowych zapisanych w Karcie Praw Podstawowych Unii Europejskiej, w tym demokracji, praworządności i ochrony środowiska, w celu ochrony przed szkodliwymi skutkami systemów AI w Unii oraz wspierania innowacji”.

To złożone sformułowanie ukrywa inherentne napięcia. Kluczowe będzie precyzyjne zdefiniowanie pojęć takich jak „AI zorientowana na człowieka” czy „AI godna zaufania”. Akt balansuje między sprzecznymi celami: innowacją a zapobieganiem szkodom, a także przyjęciem AI a ochroną środowiska. Diabeł, jak zawsze w przypadku unijnych regulacji, tkwi w szczegółach interpretacji i implementacji.

Podejście oparte na ryzyku

W celu pogodzenia potencjalnych korzyści z ryzykiem, AI Act przyjmuje podejście oparte na ryzyku. Identyfikuje i zakazuje kilku zastosowań AI o „niedopuszczalnym ryzyku”, kategoryzuje „wysokiego ryzyka” zastosowania wymagające ścisłej regulacji oraz nakłada łagodniejsze obowiązki na scenariusze o „ograniczonym ryzyku”. To gradacja ma pozwolić na elastyczne, lecz odpowiedzialne zarządzanie różnorodnymi aplikacjami AI.

Wdrażanie: Etapy i terminy

Wdrożenie AI Act rozpoczęło się 1 sierpnia 2024 roku, lecz pełne wejście w życie następuje stopniowo, z rozłożonymi w czasie terminami. W wielu przypadkach, nowe przepisy będą miały szybsze zastosowanie do nowych graczy na rynku niż do firm już oferujących produkty i usługi AI w UE.

Pierwszy termin, mający moc prawną od 2 lutego 2025 roku, dotyczył egzekwowania zakazów nałożonych na niewielką liczbę zastosowań AI, takich jak nietargetowane skanowanie internetu czy monitoringu wideo w celu tworzenia lub rozbudowy baz danych zawierających obrazy twarzy. Kolejne postanowienia będą wchodzić w życie, a większość przepisów ma obowiązywać do połowy 2026 roku.

Od 2 sierpnia 2025 roku, AI Act objął „modele AI ogólnego przeznaczenia (GPAI) z ryzykiem systemowym”. Modele GPAI, trenowane na ogromnych zbiorach danych, mogą być używane do szerokiej gamy zadań, co wiąże się z potencjalnym ryzykiem systemowym. Jako przykład podano „obniżenie barier dla rozwoju broni chemicznej lub biologicznej, lub niezamierzone problemy z kontrolą autonomicznych modeli GPAI”.

Przed tym terminem UE opublikowała wytyczne dla dostawców modeli GPAI. Dotyczy to zarówno firm europejskich, jak i globalnych gigantów, takich jak Anthropic, Google, Meta i OpenAI. Firmy już obecne na rynku mają jednak dodatkowy czas, do 2 sierpnia 2027 roku, na pełne dostosowanie się do przepisów, w przeciwieństwie do nowych podmiotów.

Siła egzekwowania i sankcje

AI Act przewiduje kary finansowe, które mają być „skuteczne, proporcjonalne i odstraszające”, nawet dla największych globalnych graczy. Szczegóły zostaną doprecyzowane przez państwa członkowskie, lecz rozporządzenie określa ogólną filozofię – wielkość kary ma być zależna od poziomu ryzyka naruszenia. Najwyższe sankcje, sięgające „do 35 milionów euro lub 7% całkowitego rocznego światowego obrotu za poprzedni rok finansowy (w zależności od tego, która kwota jest wyższa)”, dotyczą naruszeń związanych z zakazanymi zastosowaniami AI. Komisja Europejska może również nakładać grzywny do 15 milionów euro lub 3% rocznego obrotu na dostawców modeli GPAI.

Reakcje branży technologicznej

W lipcu 2025 roku Meta ogłosiła decyzję o nieprzystąpieniu do dobrowolnego kodeksu postępowania GPAI, mającego pomóc dostawcom w zgodności z AI Act. W przeciwieństwie do niej, Google potwierdziło swoje przystąpienie, mimo zgłaszanych zastrzeżeń. Do sygnatariuszy należą m.in. Aleph Alpha, Amazon, Anthropic, Cohere, Google, IBM, Microsoft, Mistral AI i OpenAI. Jednakże samo podpisanie nie zawsze oznacza pełne poparcie dla wszystkich aspektów przepisów, co widać na przykładzie Google.

Firmy technologiczne nie kryją swojego sceptycyzmu. Kent Walker, prezes Google ds. globalnych, wyrażał obawy, że AI Act „niesie ze sobą ryzyko spowolnienia rozwoju i wdrażania AI w Europie”. Joel Kaplan, dyrektor ds. globalnych w Meta, posunął się dalej, określając europejskie podejście jako „nadmierne” i twierdząc, że kodeks postępowania „wprowadza szereg niepewności prawnych dla deweloperów modeli, a także środki, które wykraczają daleko poza zakres AI Act”.

Również europejskie firmy wyraziły swoje zaniepokojenie. Arthur Mensch, dyrektor generalny francuskiego Mistral AI, był jednym z sygnatariuszy listu otwartego, wzywającego Brukselę do „zatrzymania zegara” na dwa lata przed wejściem w życie kluczowych obowiązków AI Act. Jednakże, na początku lipca 2025 roku, Unia Europejska odrzuciła te lobbingowe wysiłki, utrzymując swoje pierwotne terminy wdrożenia AI Act, co potwierdziło wejście w życie terminu z 2 sierpnia 2025 roku zgodnie z planem.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *