Bezpieczeństwo

Sztuczna inteligencja ma pomóc w walce z materiałami CSAM. Priorytetem jest odróżnienie fałszywek od prawdziwych ofiar

Centrum ds. Cyberprzestępczości Departamentu Bezpieczeństwa Krajowego USA (DHS) rozpoczyna eksperyment, który może zaważyć na przyszłości walki z przestępczością w sieci. Agencja przyznała kontrakt o wartości 150 tysięcy dolarów firmie Hive AI z San Francisco na oprogramowanie, którego celem jest rozróżnienie materiałów przedstawiających seksualne wykorzystywanie dzieci (CSAM) stworzonych przez sztuczną inteligencję od tych, które dokumentują krzywdę prawdziwych osób. To próba odpowiedzi na problem, który AI sama spotęgowała.

Problem przytłaczającej skali

Dane Narodowego Centrum ds. Dzieci Zaginionych i Wykorzystywanych (NCMEC) są alarmujące: w 2024 roku odnotowano wzrost liczby incydentów z użyciem generatywnej AI aż o 1325%. Ta lawina syntetycznych treści sprawia, że śledczy toną w materiale dowodowym, nie wiedząc, które obrazy wymagają natychmiastowej interwencji w celu ochrony realnego, zagrożonego dziecka. Pierwszym i najważniejszym zadaniem jest bowiem odnalezienie ofiar i zatrzymanie trwającego przestępstwa.

W mocno zredagowanej dokumentacji kontraktu, opublikowanej 19 września, podkreślono, że priorytetem jest efektywne zarządzanie zasobami. „Sama objętość treści cyfrowych krążących w internecie wymusza użycie zautomatyzowanych narzędzi do sprawnego przetwarzania i analizowania danych” – czytamy w dokumencie. Jak wskazują autorzy, identyfikacja materiałów stworzonych przez AI „zapewnia, że zasoby śledcze są skoncentrowane na sprawach z udziałem prawdziwych ofiar, maksymalizując wpływ programu i chroniąc osoby zagrożone”.

Jak działa technologia Hive AI?

Firma Hive AI nie jest nowicjuszem w dziedzinie moderacji treści. Oferuje zarówno narzędzia do tworzenia obrazów i wideo, jak i algorytmy do flagowania przemocy, spamu czy materiałów o charakterze seksualnym. We współpracy z organizacją non-profit Thorn, zajmującą się bezpieczeństwem dzieci, firma stworzyła już narzędzie do walki z CSAM. Działa ono na zasadzie „haszowania” – przypisuje unikalne identyfikatory znanym organom ścigania materiałom, blokując ich ponowne przesyłanie na platformy. To dziś standardowa linia obrony dla wielu firm technologicznych.

Jednak to nie ta technologia jest przedmiotem kontraktu z DHS. Śledczy będą testować osobne, bardziej ogólne narzędzie, które określa, czy dany obraz został wygenerowany przez AI. Co ciekawe, według Kevina Guo, współzałożyciela i CEO Hive AI, algorytm nie musi być trenowany specjalnie na materiałach CSAM. „Jesteśmy w stanie zidentyfikować pewną ukrytą kombinację pikseli w obrazie” jako wytwór AI, co sprawia, że model jest uniwersalny. Firma ma testować i dostosowywać skuteczność detektora specjalnie pod kątem nowego zastosowania.

Kontrakt bez przetargu i trzymiesięczny test

Rząd uzasadnił przyznanie kontraktu bez procedury przetargowej, powołując się na dwa kluczowe argumenty. Pierwszy to badanie Uniwersytetu w Chicago z 2024 roku, w którym narzędzie Hive AI zostało uznane za skuteczniejsze od czterech konkurencyjnych rozwiązań w identyfikacji sztuki generowanej przez AI. Drugim jest istniejący kontrakt firmy z Pentagonem na identyfikację deepfake’ów. Narodowe Centrum ds. Dzieci Zaginionych i Wykorzystywanych nie odpowiedziało na prośbę o komentarz w sprawie skuteczności takich modeli detekcji.

Okres testowy potrwa zaledwie trzy miesiące, co sugeruje, że na razie jest to projekt pilotażowy mający na celu ocenę skuteczności technologii w realnych warunkach. Jeśli narzędzie okaże się precyzyjne, może stać się kluczowym elementem w arsenale śledczych, pozwalając im skupić się tam, gdzie ludzkie życie jest realnie zagrożone. Jeśli jednak jego skuteczność będzie niewystarczająca, pozostanie jedynie technologiczną ciekawostką w wyścigu zbrojeń, w którym przestępcy wciąż wykorzystują innowacje do swoich celów.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *