Google przystępuje do unijnego kodeksu praktyk AI, mimo obaw regulacyjnych
Google potwierdziło zamiar przystąpienia do kodeksu praktyk dotyczącego sztucznej inteligencji ogólnego przeznaczenia, stanowiącego dobrowolne ramy wspierające deweloperów AI w implementacji procesów zgodnych z europejskim Aktem o sztucznej inteligencji.
Decyzja ta następuje w momencie, gdy z dniem 2 sierpnia w życie wchodzą przepisy dotyczące dostawców „modeli AI ogólnego przeznaczenia z ryzykiem systemowym”. Regulacje te obejmą gigantów takich jak Anthropic, Google, Meta i OpenAI, którzy będą mieli dwa lata na pełne dostosowanie do wymagań AI Act.
Warto odnotować, że Meta w tym miesiącu ogłosiła odmowę podpisania kodeksu, argumentując, że wdrożenie unijnego prawodawstwa w zakresie AI stanowi „nadmierną ingerencję” i że Europa „obiera złą drogę w kwestii AI”.
Kent Walker, prezes ds. globalnych w Google, w niedawnym wpisie na blogu przyznał, że ostateczna wersja kodeksu praktyk jest lepsza od początkowych propozycji UE. Jednocześnie wyraził jednak obawy dotyczące zarówno AI Act, jak i samego kodeksu.
„Nadal obawiamy się, że Akt o AI i Kodeks ryzykują spowolnienie rozwoju i wdrażania sztucznej inteligencji w Europie. W szczególności, odstępstwa od prawa autorskiego UE, kroki spowalniające zatwierdzanie, czy wymogi ujawniania tajemnic handlowych mogą zahamować rozwój i wdrażanie modeli w Europie, szkodząc jej konkurencyjności” – napisał Walker.
Przystąpienie do kodeksu praktyk oznacza zgodę firm AI na przestrzeganie szeregu wytycznych, w tym dostarczanie aktualnej dokumentacji dotyczącej ich narzędzi i usług AI, zakaz trenowania AI na pirackich treściach oraz spełnianie woli właścicieli treści, którzy nie zgadzają się na wykorzystywanie ich dzieł w zbiorach danych.
Unijny Akt o sztucznej inteligencji, oparty na regulacji według ryzyka dla aplikacji AI, zakazuje pewnych zastosowań uznanych za „niedopuszczalne ryzyko”, takich jak manipulacja behawioralna czy scoring społeczny. Przepisy definiują również szereg zastosowań „wysokiego ryzyka”, w tym biometrię i rozpoznawanie twarzy, a także użycie AI w dziedzinach takich jak edukacja i zatrudnienie. Akt wymaga także od deweloperów rejestracji systemów AI oraz spełnienia wymogów w zakresie zarządzania ryzykiem i jakością.
