BiznesEtyka AI

Miliardowy rynek deepfake: Aplikacja Clothoff planuje globalną ekspansję mimo pozwów i kontrowersji

Aplikacja Clothoff, narzędzie do generowania fałszywych nagich zdjęć, znane również jako nudify, intensywnie dąży do umocnienia swojej pozycji na globalnym rynku, czerpiąc zyski z tworzenia pornografii typu deepfake. Mimo że w sierpniu ubiegłego roku została objęta pozwem przez prokuratora miejskiego San Francisco, Davida Chiu, operacje Clothoff wydają się niezagrożone, a spółka wręcz konsoliduje rynek, nabywając mniejsze aplikacje nudify.

Jak ujawnił Der Spiegel, powołując się na byłego pracownika Clothoff, firma zakupiła co najmniej dziesięć innych usług tego typu. Te platformy generują od setek tysięcy do kilku milionów wyświetleń miesięcznie. Whistleblower, który zachował anonimowość, wskazał, że motywacją za ekspansją jest „obsesja na punkcie pieniędzy” wśród pracowników, którzy odczuli, że ich, niegdyś ekscytujący, startup przekształcił się w cyniczną machinę do zarabiania. Tworzenie przekonujących fałszywych zdjęć kosztuje zaledwie kilka dolarów, co sprawia, że model biznesowy opiera się na masowym pozyskiwaniu użytkowników.

Raport Der Spiegel szacuje roczny budżet Clothoff na około 3,5 miliona dolarów. W swojej strategii marketingowej aplikacja coraz częściej wykorzystuje boty na Telegramie oraz kanały na platformie X (dawniej Twitter), by docierać do młodych mężczyzn. Warto zauważyć, że Reddit zablokował linki do Clothoff już w 2024 roku, co świadczy o rosnącym problemie i działaniach platform wobec treści nagości bez zgody.

Ujawniony plan ekspansji na rynek niemiecki przewiduje manipulacyjne działania, takie jak tworzenie nagich zdjęć znanych influencerek, piosenkarek i aktorek, z hasłem: „Ty wybierasz, kogo chcesz rozebrać”. Choć niektóre gwiazdy zaprzeczyły, jakoby wyraziły zgodę na wykorzystanie ich wizerunku, a ich przedstawiciele zapowiedzieli podjęcie kroków prawnych, problem deepfake’ów dotyka nawet światowych ikon, jak Taylor Swift. Podobne kampanie planowane są na rynkach brytyjskim, francuskim i hiszpańskim. W USA, Clothoff stał się narzędziem do dręczenia licealistek, co zaowocowało m.in. pozwem sądowym w New Jersey, gdzie nastolatka pozywa chłopca, który użył aplikacji do „rozebrania” jej zdjęcia z Instagrama, gdy miała 14 lat.

Marketing Clothoff celuje w młodych mężczyzn w wieku 16-35 lat, zainteresowanych memami i grami, ale także, co niepokojące, treściami gloryfikującymi mizoginię czy skrajnie prawicowe idee, promowane m.in. przez Andrew Tate’a. Prokurator David Chiu, dążąc do ochrony młodych kobiet, podjął próbę zamknięcia Clothoff, jednak dotychczasowe wysiłki, mimo zamknięcia dwóch innych stron (porngen.art i undresser.ai) nie przyniosły sukcesu w przypadku Clothoff, który nadal unika doręczenia pozwu.

Działania Der Spiegel, mające na celu zdemaskowanie operatorów Clothoff, doprowadziły do Europy Wschodniej, gdzie natknięto się na „niezabezpieczoną bazę danych”. Znalezione tam informacje, wraz z zeznaniami whistleblowera, wskazują, że wszyscy pracownicy Clothoff pochodzą z krajów byłego Związku Radzieckiego, a wewnętrzna komunikacja odbywa się w języku rosyjskim. Usługi poczty elektronicznej aplikacji są oparte w Rosji.

Choć osoba podająca się za rzecznika Clothoff, Elias, zaprzeczyła istnieniu powiązań z czterema zidentyfikowanymi osobami, a także podważyła podaną kwotę budżetu, warto zauważyć, że chwilę po kontakcie z Der Spiegel, baza danych została usunięta. Elias stanowczo odrzucił również zarzuty o planowanym wykorzystaniu wizerunków influencerów bez zgody oraz o możliwości tworzenia nudesów z udziałem nieletnich. Jednak świadectwo jednego z użytkowników Clothoff sugeruje, że mechanizmy weryfikacji wieku nie zawsze są skuteczne, co pozwala na generowanie fałszywych obrazów osób wyglądających na nieletnie.

Niestety, rozwój Clothoff wydaje się niepowstrzymany. Mimo to, pozwy sądowe, jak ten złożony przez nastolatkę z New Jersey, która domaga się 150 000 dolarów za każde udostępnione zdjęcie, pokazują, że ofiary zaczynają walczyć o sprawiedliwość. Nowo uchwalona w USA ustawa „Take It Down Act” ma ułatwić usuwanie deepfake’owych nagich zdjęć, jednak eksperci przewidują, że zmierzy się z wyzwaniami prawnymi. Jak zauważa pozew złożony przez licealistkę, “Jane Doe jest jedną z wielu dziewcząt i kobiet, które były i będą wykorzystywane, nadużywane i wiktymizowane przez pornografię bez zgody, generowaną przez sztuczną inteligencję.”

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *