Etyka AI

Clarifai usuwa miliony zdjęć z OkCupid. Prywatność w cieniu wielkich modeli AI

Cyfrowy ślad znika z serwerów

Trzy miliony twarzy przestało właśnie karmić algorytmy Clarifai. Firma oficjalnie potwierdziła usunięcie gigantycznej bazy zdjęć pozyskanych od użytkowników OkCupid, kończąc wieloletni spór o etykę trenowania AI bez wyraźnej zgody zainteresowanych.

To koniec pewnej ery bezkarności.

Przekazanie danych, które miało miejsce jeszcze w 2014 roku, odbyło się w cieniu powiązań kapitałowych – założyciele portalu randkowego byli jednocześnie inwestorami w powstającym startupie AI. Dokumenty ujawnione przez Reutersa malują obraz e-mailowej prośby o „ogromną ilość świetnych danych”, które posłużyły do budowy systemów identyfikacji rasy, wieku i płci.

Polityczne starcie o biometrię

Sprawa Clarifai stała się paliwem dla amerykańskiej debaty politycznej w przededniu wyborów do Kongresu. Podczas gdy administracja Donalda Trumpa naciska na amerykańską dominację w sektorze AI, opozycja bije na alarm, wytykając Federalnej Komisji Handlu (FTC) zbyt miękkie podejście do naruszeń prywatności.

Konsekwencje bez kar finansowych

  • FTC nie posiada uprawnień do nakładania kar pieniężnych za tego typu naruszenia.
  • Clarifai nie usłyszało formalnych zarzutów o złamanie prawa.
  • OkCupid zobowiązało się do zaprzestania wprowadzania użytkowników w błąd.
  • Usunięte modele AI były rozwijane i prawdopodobnie komercjalizowane przez blisko dekadę.

Joe Simonson, rzecznik FTC, zdążył już nazwać krytykę ze strony Demokratów „całkowicie bezpodstawną”, co pokazuje, że technologia rozpoznawania twarzy przestała być jedynie kwestią inżynieryjną, a stała się orężem w walce o głosy wyborców.

Fundamenty wirtualnego nadzoru

Clarifai to nie jest niszowy gracz. Firma, wspierana kapitałowo przez gigantów takich jak Nvidia, dostarcza technologię analityczną dla amerykańskiej armii. Fakt, że jej fundamentem były zdjęcia z portalu randkowego, rzuca ponure światło na tzw. data scavenging – proces agresywnego zbierania danych z dowolnego źródła, byle tylko zyskać przewagę w wyścigu zbrojeń AI.

Utylizacja modeli to rzadki przypadek w świecie technologii. Zazwyczaj raz wytrenowana sieć neuronowa zostaje w obrocie, nawet jeśli dane źródłowe zostaną usunięte.

Pytanie o to, jak długo modele trenowane na skradzionych twarzach pracowały dla rządu i sektora prywatnego, pozostaje bez odpowiedzi. Clarifai milczy w kwestii dokładnego momentu usunięcia algorytmów, zasłaniając się jedynie certyfikacją przesłaną do FTC.