Prawo

Walka z pornografią deepfake: Prawnicze wyzwania i nowe realia

Wraz z dynamicznym rozwojem sztucznej inteligencji świat cyfrowy mierzy się z mroczną stroną tej technologii – pornografią deepfake, której ofiarami coraz częściej padają nieletni. Problem ten ilustruje niedawny incydent związany z aplikacją ClothOff oraz kontrowersje wokół działań xAI Elona Muska. Obie sytuacje dobitnie pokazują, jak oporne na regulacje są platformy umożliwiające generowanie nielegalnych treści, a także jak skomplikowane jest dochodzenie sprawiedliwości dla poszkodowanych.

Od ponad dwóch lat aplikacja ClothOff, umożliwiająca generowanie zdjęć deepfake, stanowi realne zagrożenie dla młodych kobiet. Mimo usunięcia z głównych sklepów z aplikacjami i zbanowania na większości platform społecznościowych, ClothOff nadal jest dostępna w sieci i poprzez bota na Telegramie. W październiku ubiegłego roku klinika prawnicza z Yale Law School wszczęła postępowanie sądowe, mające na celu całkowite zlikwidowanie aplikacji, usunięcie wszystkich obrazów i powstrzymanie jej działalności. Jednak już samo zlokalizowanie pozwanych okazało się wyzwaniem.

„Jest zarejestrowana na Brytyjskich Wyspach Dziewiczych” – wyjaśnia profesor John Langford, główny prawnik w tej sprawie – „ale wierzymy, że jest prowadzona przez rodzeństwo z Białorusi. Może nawet stanowić część większej, globalnej siatki przestępczej.”

Sprawa ta jest ponurą lekcją w dobie niedawnej fali niekonsensualnej pornografii generowanej przez xAI Elona Muska, która dotknęła również nieletnich. Materiały przedstawiające seksualne wykorzystywanie dzieci są najbardziej prawnie toksyczną treścią w internecie – ich produkcja, przesyłanie czy przechowywanie jest nielegalne i są one regularnie skanowane przez wszystkie główne usługi chmurowe. Jednak pomimo intensywnych zakazów prawnych niewiele jest sposobów na skuteczne zwalczanie generatorów obrazów takich jak ClothOff, czego dowodzi przypadek prowadzony przez Langforda. Użytkownicy indywidualni mogą zostać ścigani, ale platformy takie jak ClothOff czy Grok (xAI) są znacznie trudniejsze do kontrolowania, co pozostawia ofiarom niewiele opcji dochodzenia sprawiedliwości w sądzie.

Skarga kliniki, dostępna online, maluje alarmujący obraz. Powódką jest anonimowa uczennica szkoły średniej z New Jersey, której koledzy z klasy użyli ClothOff do przerobienia jej zdjęć z Instagrama. Poszkodowana miała 14 lat, kiedy wykonano oryginalne zdjęcia, co oznacza, że zmodyfikowane przez AI wersje są prawnie klasyfikowane jako materiał przedstawiający seksualne wykorzystywanie dzieci (CSAM). Pomimo jednoznacznej nielegalności zmodyfikowanych obrazów, lokalne władze odmówiły wszczęcia postępowania, powołując się na trudności w uzyskaniu dowodów z urządzeń podejrzanych.

„Ani szkoła, ani organy ścigania nigdy nie ustaliły, jak szeroko rozpowszechnione były materiały CSAM dotyczące Jane Doe i innych dziewcząt” – czytamy w skardze.

Sprawa sądowa posuwa się powoli. Skarga została złożona w październiku, a w ciągu kolejnych miesięcy Langford i jego koledzy starali się doręczyć zawiadomienia pozwanym – zadanie utrudnione przez globalny charakter przedsięwzięcia. Po doręczeniu zawiadomień klinika będzie mogła naciskać na rozprawę sądową i ostatecznie na wydanie wyroku, jednak w międzyczasie system prawny nie zapewnił ofiarom ClothOff pocieszenia.

Sprawa Groka Elona Muska może wydawać się prostsza do rozwiązania. xAI nie ukrywa się, a dla prawników, którzy wygrają sprawę, jest szansa na duże honoraria. Jednak Grok to narzędzie ogólnego przeznaczenia, co znacznie utrudnia pociągnięcie go do odpowiedzialności sądowej.

„ClothOff jest zaprojektowany i sprzedawany specjalnie jako generator pornograficznych obrazów i filmów deepfake” – mówi Langford. „Kiedy pozywa się system ogólnego przeznaczenia, który użytkownicy mogą wykorzystywać do różnych celów, sprawa staje się znacznie bardziej skomplikowana.”

Wiele amerykańskich ustaw już zakazało pornografii deepfake – przede wszystkim Take It Down Act. Jednak o ile konkretni użytkownicy ewidentnie łamią te przepisy, o tyle znacznie trudniej jest pociągnąć do odpowiedzialności całą platformę. Obowiązujące prawo wymaga jasnych dowodów na zamiar wyrządzenia szkody, co oznaczałoby przedstawienie dowodów na to, że xAI wiedziało, iż ich narzędzie będzie używane do produkcji niekonsensualnej pornografii. Bez takich dowodów podstawowe prawa xAI wynikające z Pierwszej Poprawki zapewniłyby znaczną ochronę prawną.

„W kontekście Pierwszej Poprawki jest dość jasne, że materiały przedstawiające seksualne wykorzystywanie dzieci nie są chronioną formą ekspresji” – mówi Langford. „Zatem, kiedy projektuje się system do tworzenia tego rodzaju treści, działa się wyraźnie poza granicami tego, co jest chronione przez Pierwszą Poprawkę. Ale kiedy mówimy o systemie ogólnego przeznaczenia, który użytkownicy mogą wykorzystywać do różnych rzeczy, sprawa nie jest już tak oczywista.”

Najprostszym sposobem na przezwyciężenie tych problemów byłoby wykazanie, że xAI świadomie zignorowało problem. Jest to realna możliwość, biorąc pod uwagę niedawne doniesienia, że Musk polecił pracownikom rozluźnić zabezpieczenia Groka. Ale nawet wtedy byłaby to znacznie bardziej ryzykowna sprawa do podjęcia.

„Rozsądni ludzie mogą powiedzieć, że wiedzieliśmy, iż to problem” – mówi Langford. „Jak to możliwe, że nie mieliście bardziej rygorystycznych kontroli, aby upewnić się, że to się nie stanie? To jest rodzaj lekkomyślności lub wiedzy, ale jest to po prostu bardziej skomplikowana sprawa.”

Te kwestie związane z Pierwszą Poprawką są powodem, dla którego największy opór wobec xAI pochodzi z systemów sądowych bez silnych prawnych gwarancji wolności słowa. Zarówno Indonezja, jak i Malezja podjęły kroki w celu zablokowania dostępu do chatbota Grok, podczas gdy organy regulacyjne w Wielkiej Brytanii wszczęły dochodzenie, które może doprowadzić do podobnego zakazu. Inne wstępne kroki podjęły Komisja Europejska, Francja, Irlandia, Indie i Brazylia. W przeciwieństwie do tego żadna amerykańska agencja regulacyjna nie wydała oficjalnej odpowiedzi.

Nie da się przewidzieć, jak zakończą się te dochodzenia, ale przynajmniej fala obrazów rodzi wiele pytań do zbadania przez organy regulacyjne – a odpowiedzi mogą być druzgocące.

„Jeśli publikujesz, rozpowszechniasz, rozsyłasz materiały przedstawiające seksualne wykorzystywanie dzieci, łamiesz zakazy karne i możesz zostać pociągnięty do odpowiedzialności” – mówi Langford. „Trudne pytanie brzmi: co wiedziało X? Co zrobiło X, a czego nie zrobiło? Co obecnie robi w odpowiedzi na to?”