Przemysłowe oszustwa z „ludzką twarzą”. Modelki AI nowym ogniwem w globalnym łańcuchu deepfake’ów
Angel ma 24 lata, pochodzi z Uzbekistanu i biegle posługuje się czterema językami: angielskim, chińskim, rosyjskim i tureckim. W swoim filmie rekrutacyjnym, nagranym w formie selfie po przyjeździe do kambodżańskiego Sihanoukville, promienieje profesjonalizmem. Nie szuka jednak zatrudnienia w korporacji. Angel aplikuje na stanowisko „modelki AI”. Jej biurem będzie komputer, a codziennym obowiązkiem – wykonywanie setek połączeń wideo, w których jej twarz zostanie zastąpiona cyfrową maską, by uwiarygodnić wielopoziomowe oszustwa inwestycyjne.
Architekci cyfrowego zaufania
Zjawisko, które badacze z organizacji takich jak Humanity Research Consultancy czy śledczy z ChongLuaDao opisują jako nową falę cyberprzestępczości, przenosi klasyczne oszustwa typu „pig-butchering” na wyższy poziom zaawansowania. Tradycyjne farmy oszustów opierały się dotąd na anonimowych czatach i skradzionych zdjęciach. Dziś, gdy ofiary stają się coraz bardziej podejrzliwe i wymagają dowodu tożsamości w formie wideorozmowy, przestępcy sięgają po technologię face-swappingu i żywych aktorów.
Kanały na Telegramie pękają w szwach od ogłoszeń. Kandydaci z Turcji, Rosji, Ukrainy i Białorusi walczą o kontrakty w „znanych ośrodkach scamerów”. Praca jest wyczerpująca: od 100 do 150 połączeń wideo dziennie, często w nocy, by dopasować się do stref czasowych ofiar z USA czy Europy. Ogłoszenia są brutalnie szczere w kwestii wymagań. „Filtry muszą wyglądać realistycznie. Wideo na żywo dozwolone, peruki zakazane” – czytamy w jednym z nich. Inne wprost wspominają o konfiskacie paszportu pod pretekstem formalności wizowych, co jest klasycznym narzędziem handlarzy ludźmi.
Pomiędzy dobrowolnością a wyzyskiem
Granica między ofiarą a sprawcą w tych operacjach bywa niepokojąco płynna. Choć wiele osób trafia do Kambodży czy Birmy zwabionych fałszywymi ofertami pracy i kończy jako więźniowie, rośnie grupa „profesjonalistów”, którzy świadomie monetyzują swoje umiejętności w służbie kradzieży. Niektórzy kandydaci w nagraniach rekrutacyjnych bez cienia zażenowania chwalą się trzyletnim stażem w „projektach krypto-miłosnych” czy doświadczeniem w „namawianiu klientów do inwestowania w złoto”.
Stawki kuszą – najlepsi mogą liczyć nawet na 7 tysięcy dolarów miesięcznie, co w regionie Azji Południowo-Wschodniej jest fortuną. Jednak rzeczywistość za kulisami rzadko przypomina pracę w luksusie. Świadkowie mówią o przemocy fizycznej wobec tych, którzy nie dowożą wyników, oraz o powszechnym molestowaniu seksualnym. Nawet „dobrowolni” pracownicy funkcjonują w systemie represyjnym, gdzie każde wyjście z budynku musi być negocjowane.
Technologia w służbie empatii
Użycie AI w tym sektorze rzuca nowe światło na problematykę deepfake’ów. Frank McKenna, strateg z Point Predictive, na własne oczy obserwował modelkę w akcji podczas kontrolowanej rozmowy, którą zaaranżował dla swojej matki. Opisuje obraz jako „nieznacznie rwaną, usterkową projekcję”, która mimo technicznych niedoskonałości, w obliczu emocjonalnego zaangażowania ofiary, okazuje się zabójczo skuteczna. Głosy w tle, pogłos i ruchy modelki budują iluzję realności, której statyczne zdjęcie nie jest w stanie dorównać.
Telegram, platforma będąca głównym hubem dla tych rekrutacji, zasłania się regulaminem zabraniającym oszustw, deklarując usuwanie treści po ich wykryciu. Jednak eksperci są sceptyczni. Ogłoszenia rzadko używają słowa „scam”. Zamiast tego pojawiają się eufemizmy: „obsługa klienta”, „budowanie relacji” czy „projekty inwestycyjne”. Dla platform technologicznych odróżnienie legalnego modelingu od udziału w przestępczym syndykacie pozostaje wyzwaniem, na które obecnie nie mają skutecznej odpowiedzi.
W dobie cyfrowej manipulacji twarz przestaje być gwarantem tożsamości. Staje się towarem eksportowym, wynajmowanym na godziny w kambodżańskich biurowcach, by budować zaufanie, które kończy się zazwyczaj wyczyszczonym kontem bankowym ofiary.
