Sztuczna inteligencja na usługach oszustów: Jak AI ułatwia wyłudzanie pieniędzy?
Sztuczna inteligencja staje się coraz powszechniejsza w naszym życiu, a wraz z nią rośnie zagrożenie ze strony oszustów, którzy wykorzystują tę technologię do wyłudzania pieniędzy. Profesor Lana Swartz z University of Virginia bada, w jaki sposób przestępcy internetowi używają AI do oszukiwania ludzi na skalę, która wcześniej była nieosiągalna.
AI – nowe narzędzie w starych oszustwach?
Według Swartz, AI działa na dwóch frontach. Po pierwsze, automatyzuje masowe oszustwa, takie jak tradycyjny phishing, wysyłany do milionów odbiorców. Po drugie, demokratyzuje techniki, które wcześniej były dostępne tylko dla elitarnych grup przestępczych.
„Harpoon phishing” – wysoce spersonalizowane ataki na osoby o wysokim statusie, takie jak dyrektorzy generalni – wymagał zaangażowania zespołów badaczy i specjalistów od inżynierii społecznej. Dziś, dzięki AI, tego typu operacje można prowadzić na zwykłych ludziach, przy znacznie mniejszych nakładach zasobów.
AI potrafi ulepszyć komunikację wykorzystywaną w oszustwach – poprawia jakość tłumaczeń językowych i pozwala na precyzyjne targetowanie osób z demencją lub niskim poziomem umiejętności czytania.
Nowe kategorie oszustw
AI tworzy także zupełnie nowe kategorie oszustw, takie jak fałszywe tożsamości. Przestępcy generują za pomocą AI fałszywe twarze, historie życia i profile w mediach społecznościowych, tworząc osoby, które nigdy nie istniały, ale posiadają kompletne cyfrowe ślady, które mogą przejść przez większość systemów weryfikacyjnych.
Popularne oszustwa z wykorzystaniem AI
Oszustwa typu „na wnuczka” z wykorzystaniem klonowania głosu są szeroko opisywane w mediach, ale to tylko wierzchołek góry lodowej. Coraz częściej spotykamy się z oszustwami typu „pig butchering”, gdzie oszuści używają AI do podtrzymywania fałszywych relacji przez wiele miesięcy, wabiąc ofiarę obietnicami zysków z inwestycji w kryptowaluty. Po „utuczeniu świni”, czyli skłonieniu ofiary do zainwestowania dużych sum pieniędzy, oszust znika z pieniędzmi.
Nawet bez bezpośredniego nakłaniania do inwestycji, AI może być używana do generowania fałszywych tokenów kryptowalutowych z fałszywymi rekomendacjami celebrytów i fałszywymi platformami transakcyjnymi. Sextortion to kolejna poważna sprawa, w której wykorzystywane są generowane przez AI kompromitujące zdjęcia do szantażowania ofiar. AI znajduje zastosowanie w każdym rodzaju oszustwa – od fałszywych recenzji produktów po fałszywe oferty pracy i fałszywych przedstawicieli obsługi klienta.
Jak się chronić?
Swartz radzi, aby zachować sceptycyzm wobec pilnych próśb o pieniądze lub dane osobowe, zwłaszcza tych, które dotyczą połączeń głosowych od rzekomych członków rodziny w potrzebie. Zawsze należy weryfikować tożsamość rozmówcy za pomocą niezależnych kanałów. W sytuacjach wywierających presję, warto zwolnić tempo i dokładnie przeanalizować sytuację.
Należy zachować szczególną ostrożność w przypadku okazji inwestycyjnych obiecujących szybkie zyski, zwłaszcza gdy pochodzą od partnerów romantycznych poznanych online, przyjaciół lub mentorów. Unikaj prowadzenia rozmów poza ustalonymi platformami. Pamiętaj, że legalne organizacje nie proszą o poufne informacje za pośrednictwem niechcianych połączeń lub wiadomości. W razie wątpliwości, rozłącz się i skontaktuj się z daną organizacją bezpośrednio, korzystając z oficjalnych danych kontaktowych.
Co zrobić, gdy padniesz ofiarą oszustwa?
Działaj natychmiast. Skontaktuj się z bankiem lub operatorem płatności. Zablokuj swoje konto. Zgłoś sprawę do FBI Internet Crime Complaint Center, Federalnej Komisji Handlu oraz na platformę, na której doszło do oszustwa. Zabezpiecz dowody i zrób zrzuty ekranu. Karty kredytowe oferują znacznie lepszą ochronę niż przelewy bankowe w systemie Wire transfer, kryptowaluty, a nawet karty debetowe.
Jeśli ofiara oszustwa nawiązała relację z oszustem, prawdopodobnie będzie narażona na manipulacje emocjonalne. Niestety, w przypadku transgranicznych oszustw kryptowalutowych rzadko udaje się odzyskać pieniądze. Im szybciej zareagujesz, tym większe masz szanse. Ważne jest również, aby zmniejszyć wstyd i stygmatyzację związaną z byciem ofiarą oszustwa.
Skomplikowany problem
Swartz podkreśla, że problem oszustw z wykorzystaniem AI jest niezwykle złożony. Nie jest to tylko problem technologiczny, regulacyjny czy edukacyjny, ale wszystkie te aspekty naraz. Ma zasięg globalny, a wiele oszustw jest dokonywanych przez ofiary handlu ludźmi w krajach o słabych rządach.
W Stanach Zjednoczonych problem ten nasila się w kontekście ograniczonego zaufania do instytucji i niepewności ekonomicznej. Coraz więcej osób znajduje się w trudnej sytuacji i podejmuje ryzykowne decyzje, korzystając z nieformalnych kanałów.
Jakie jest rozwiązanie?
Rozwiązanie musi być wieloaspektowe. Potrzebna jest współpraca rządów, przemysłu i społeczeństwa obywatelskiego ponad granicami. Potrzebna jest edukacja kulturalna, która dociera do ludzi tam, gdzie się znajdują. Oszustwa są już dużą częścią kultury popularnej, więc wykorzystajmy to, zamiast z tym walczyć.
Należy inwestować w edukację finansową, która uwzględnia realia, z jakimi ludzie się dziś mierzą, a nie przestarzałe porady, które nie biorą pod uwagę złożoności internetowego krajobrazu finansowego.
Firmy zajmujące się AI i platformy technologiczne muszą przyjąć większą odpowiedzialność za zapobieganie oszustwom opartym na AI, wdrażając solidne systemy wykrywania, mechanizmy zgłaszania i zasady usuwania fałszywych treści. Oprócz samoregulacji, rządy muszą ustanowić kompleksowe ramy regulacyjne, które pociągną te platformy do odpowiedzialności prawnej.
