Deepfake’i w rekrutacji: Persona blokuje miliony ataków i zmienia rynek weryfikacji tożsamości
Wraz z upowszechnieniem pracy zdalnej, działy rekrutacji mierzą się z niewidzialnym wrogiem – zaawansowanymi osobowościami generowanymi przez sztuczną inteligencję. Te cyfrowe klony są zdolne do przechodzenia rozmów kwalifikacyjnych wideo, przedstawiania przekonujących życiorysów, a nawet oszukiwania specjalistów HR na tyle skutecznie, by otrzymywać oferty pracy. W odpowiedzi na to narastające zagrożenie, firmy technologiczne ścigają się w rozwoju innowacyjnych narzędzi do weryfikacji tożsamości.
Persona, wiodąca platforma weryfikacji tożsamości z San Francisco, ogłosiła rozszerzenie swoich możliwości w zakresie kontrolowania kandydatów. Firma wprowadza nowe narzędzia, które mają skutecznie wykrywać spersonalizowane, generowane przez AI profile i ataki typu deepfake podczas procesów rekrutacyjnych. Rozwiązanie to integruje się z kluczowymi platformami korporacyjnymi, takimi jak Okta Workforce Identity Cloud i Cisco Duo, umożliwiając organizacjom weryfikację tożsamości kandydatów w czasie rzeczywistym. Jak podkreśla Rick Song, dyrektor generalny i współzałożyciel Persony, w ekskluzywnym wywiadzie dla VentureBeat: „W dzisiejszym środowisku, upewnienie się, że osoba po drugiej stronie ekranu faktycznie jest tą, za którą się podaje, jest ważniejsze niż kiedykolwiek. W obliczu infiltracji przedsiębiorstw przez podmioty wspierane przez państwa i rosnącej łatwości tworzenia fałszywych tożsamości dzięki generatywnej AI, nasze ulepszone rozwiązanie Workforce IDV daje organizacjom pewność, że każda próba dostępu jest powiązana z rzeczywistą, zweryfikowaną osobą.”
Ekspansja fałszywych kandydatów: Przerażające statystyki
Wzrost popularności pracy zdalnej stworzył idealne warunki dla rozkwitu oszust oszustw rekrutacyjnych. Raport Gartnera z kwietnia 2025 roku przewiduje, że do 2028 roku co czwarty profil kandydata na świecie będzie fałszywy. Jest to alarmująca prognoza, która podkreśla, jak narzędzia sztucznej inteligencji obniżyły bariery tworzenia przekonujących, lecz nieprawdziwych tożsamości. Dane Persony potwierdzają tę tendencję – tylko w 2024 roku platforma zablokowała ponad 75 milionów prób fałszowania twarzy za pomocą AI. Firma odnotowała 50-krotny wzrost aktywności deepfake’ów w ostatnich latach, z atakami stającymi się coraz bardziej wyszukanymi.
Zagrożenie wykracza poza indywidualnych aktorów
Problem deepfake’ów w rekrutacji nie ogranicza się wyłącznie do pojedynczych oszustów. Rick Song zwraca uwagę na zaangażowanie aktorów państwowych, w tym grup sponsorowanych przez Koreę Północną. Ich celem jest infiltracja amerykańskich przedsiębiorstw, co podnosi problem do rangi zagrożenia bezpieczeństwa narodowego. Głośne przypadki, takie jak ten, w którym firma KnowBe4 nieświadomie zatrudniła północnokoreańskiego pracownika IT, który próbował załadować złośliwe oprogramowanie do systemów firmowych, pokazują skalę zagrożenia. Departament Bezpieczeństwa Wewnętrznego USA ostrzega, że „tożsamości deepfake” stanowią rosnące zagrożenie dla bezpieczeństwa narodowego, umożliwiając tworzenie „wiarygodnych, realistycznych filmów, zdjęć, nagrań audio i tekstów wydarzeń, które nigdy nie miały miejsca”.
Trójwarstwowa obrona w walce z AI
Strategia Persony opiera się na „wielomodalnym” podejściu, analizującym weryfikację tożsamości na trzech odrębnych poziomach. To nie tylko sprawdzenie samego materiału wejściowego (zdjęć, filmów, dokumentów), ale także kontekstu środowiskowego (cechy urządzenia, sygnały sieciowe, metody przechwytywania) oraz ogólnych wzorców, które mogą wskazywać na skoordynowane ataki. „Nie ma jednego cudownego rozwiązania dla problemu tożsamości” – zaznacza Song. – „Nie można patrzeć na to z jednej perspektywy. AI może generować bardzo przekonujące treści, jeśli patrzy się wyłącznie na poziom przesłanego materiału, ale wszystkie inne elementy tworzenia przekonującej fałszywej tożsamości nadal są trudne do podrobienia.” Algorytmy Persony przewyższają obecnie możliwości ludzkiej percepcji w identyfikacji deepfake’ów, choć Song przyznaje, że jest to ciągły wyścig zbrojeń. „AI staje się coraz lepsza i coraz szybciej się rozwija”, dodaje.
Szybkie wdrożenie i zmiana paradygmatu weryfikacji tożsamości
Persona podkreśla, że jej ulepszone rozwiązanie do weryfikacji siły roboczej może być wdrożone w zadziwiająco krótkim czasie. Organizacje korzystające już z platform zarządzania tożsamością Okta lub Cisco mogą zintegrować narzędzia Persony w zaledwie 30 minut do godziny. To przyspieszenie ma kluczowe znaczenie w obliczu dynamicznego rozwoju zagrożeń. Co więcej, Persona została zaprojektowana tak, aby stwarzać „tarcia dla złych użytkowników, aby uniemożliwić im przejście” przy jednoczesnym zapewnieniu płynnego doświadczenia dla prawdziwych kandydatów.
Rynek weryfikacji tożsamości, wcześniej skupiony na sprawdzaniu informacji po przyjęciu założenia o autentyczności kandydata, musi teraz sprostać nowemu wyzwaniu: fundamentalnemu pytaniu, czy kandydat w ogóle istnieje. Traditionalne weryfikacje opierają się na założeniu, że jesteś tym, za kogo się podajesz, i weryfikują przedstawione informacje – wyjaśnia Song. – Nowym problemem jest pytanie: czy faktycznie jesteś tym, za kogo się podajesz? A to bardzo różni się od tego, co tradycyjnie rozwiązywały firmy zajmujące się weryfikacją przeszłości.” Analitycy przewidują, że rynek weryfikacji tożsamości w kontekście siły roboczej będzie szybko rosnąć, z uwagi na prognozowany globalny wzrost do 21,8 miliarda dolarów do 2028 roku.
Poza deepfake’ami: Cyfrowa tożsamość a historia zachowań
W miarę nasilania się technologicznego wyścigu zbrojeń między oszustwami generowanymi przez AI a systemami wykrywania, Song wierzy, że ostateczne rozwiązanie może wymagać fundamentalnej zmiany w sposobie myślenia o weryfikacji tożsamości. Zamiast skupiać się wyłącznie na wykrywaniu, czy treść jest sztucznie generowana, CEO Persony prognozuje przyszłość, w której cyfrowa tożsamość będzie ustalana poprzez skumulowaną historię zachowań. Firma Persona bada systemy, w których tożsamość byłaby potwierdzana poprzez cyfrowe ślady danej osoby – jej historię legalnych transakcji, ukończonych kursów, zakupów i zweryfikowanych interakcji na różnych platformach. „Wszystkie wcześniejsze działania, które wykonałem – zamawianie z DoorDash, ukończenie kursu na Courserze, kupowanie butów ze StockX – te interakcje na dłuższą metę prawdopodobnie naprawdę zdefiniują, kim jestem” – wyjaśnia Song. To podejście znacznie utrudniłoby złym aktorom tworzenie przekonujących fałszywych tożsamości, ponieważ musieliby fabrykować lata autentycznej cyfrowej historii, a nie tylko przekonujące wideo czy dokument.
W dobie cyfrowej, pierwszym wymogiem każdej pracy, jak się okazuje, może być po prostu… istnienie.
