CyberbezpieczeństwoPrawo

NO FAKES Act: Ochrona przed deepfake’ami czy zagrożenie dla wolności internetu?

Kiedy po raz pierwszy pojawiły się pomysły na regulacje dotyczące deepfake’ów, intencje wydawały się słuszne. Rosnąca liczba realistycznych, lecz fałszywych materiałów wideo i audio, generowanych przez sztuczną inteligencję, stanowiła realne zagrożenie dla reputacji, prywatności, a nawet procesów demokratycznych. Jednak projekt ustawy Nurture Originals, Foster Art, and Keep Entertainment Safe (NO FAKES) Act, który miał stawić czoła temu wyzwaniu, ewoluował w sposób budzący poważne zaniepokojenie.

Od sensownych zabezpieczeń do daleko idących restrykcji

Początkowe założenie było proste: stworzyć mechanizmy prawne chroniące osoby fizyczne przed nieautoryzowanym wykorzystaniem ich wizerunku lub głosu do tworzenia cyfrowych replik. Wszyscy jesteśmy świadkami, jak niepokojące potrafią być deepfake’i. Zamiast jednak skupić się na precyzyjnych i ściśle ukierunkowanych środkach, ustawodawcy, jak alarmują obrońcy praw cyfrowych, w tym Electronic Frontier Foundation (EFF), poszli znacznie dalej.

Zamiast wdrożyć celowane regulacje, projekt ustawy w aktualnej formie nakłada na platformy internetowe obowiązek wdrożenia złożonych systemów filtrowania treści. Nie chodzi już tylko o usuwanie materiałów po otrzymaniu zgłoszenia, ale o prewencyjne blokowanie podobnych treści przed ich pojawieniem się w sieci. To mechanizm, który, jak pokazuje doświadczenie z systemami takimi jak YouTube Content ID, jest notorycznie niedoskonały i prowadzi do błędnego oznaczania legalnych treści, w tym parodii, satyry czy materiałów objętych zasadą dozwolonego użytku.

Zagrożenie dla innowacji i małych firm

Jeszcze bardziej niepokojące dla sektora AI jest to, że NO FAKES Act nie celuje wyłącznie w szkodliwe treści, ale w same narzędzia do ich tworzenia. Przepisane ustawy mogłyby prowadzić do zamykania całych platform deweloperskich i oprogramowania, jeśli zostałyby uznane za, nawet w drugim rzędzie, „głównie zaprojektowane” do tworzenia nieautoryzowanych replik. Taka definicja, co oczywiste, mocno otwiera się na dowolność interpretacji.

To podejście przypomina próbę zakazania edytorów tekstu, ponieważ mogą być używane do pisania treści zniesławiających. Małe startupy, zwłaszcza te spoza Stanów Zjednoczonych, inwestujące w generowanie obrazów AI, mogą znaleźć się w obliczu kosztownych batalii prawnych na podstawie często nieuzasadnionych oskarżeń. Tymczasem giganci technologiczni, dysponujący armiami prawników, znacznie łatwiej przetrwają podobne burze, co nieuchronnie doprowadzi do umocnienia ich dominującej pozycji na rynku.

Obawy budzi również uderzająca cisza ze strony wielu dużych firm technologicznych. EFF sugeruje, że to nie przypadek – ugruntowani gracze są w stanie ponosić koszty zgodności z przepisami, które zrujnowałyby mniejszych konkurentów, skutecznie eliminując ich z rynku. Historia regulacji technologicznych pokazuje, że często to, co miało uderzyć w Big Tech, kończy się cemenwując ich przewagę, poprzez tworzenie barier wejścia dla nowych podmiotów.

Wpływ na anonimowość i wolność wypowiedzi

Dodatkowym, a zarazem alarmującym elementem ustawy jest przepis, który umożliwia łatwe ujawnianie tożsamości anonimowych użytkowników internetu na podstawie jedynie zarzutów. Akt przewiduje możliwość uzyskania wezwania sądowego od urzędnika sądowego, bez konieczności przeprowadzenia oceny sądowej czy przedstawienia dowodów, w celu zmuszenia dostawców usług do ujawnienia danych identyfikacyjnych użytkowników oskarżonych o tworzenie nieautoryzowanych replik. Tego rodzaju otwarte mechanizmy, jak pokazuje doświadczenie, są podatne na nadużycia, co może prowadzić do demaskowania i nękania krytyków, których anonimowość jest kluczowa dla bezpiecznego wyrażania opinii.

Taka luka prawna mogłaby mieć poważne konsekwencje dla uzasadnionej krytyki i działań sygnalistów. Wyobraźmy sobie ujawnienie korupcji w korporacji, a następnie ujawnienie swojej tożsamości poprzez proces stemplowania wniosków sądowych. Warto zaznaczyć, że Kongres niedawno przegłosował ustawę Take It Down Act, która już teraz zajmuje się obrazami o charakterze intymnym lub seksualnym, co już samo w sobie budziło obawy o prywatność, zwłaszcza w kontekście monitorowania zaszyfrowanej komunikacji. Zamiast oceniać efekty istniejących przepisów, ustawodawcy wydają się zdeterminowani forsować kolejne, szerzej zakrojone regulacje, które mogłyby na dziesięciolecia przedefiniować zarządzanie internetem.

Nadchodzące tygodnie będą kluczowe dla losów NO FAKES Act. Dla wszystkich, którzy cenią wolność internetu, innowacje i wyważone podejście do wyzwań związanych z nowymi technologiami, jest to kwestia wymagająca pilnego monitorowania.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *