BezpieczeństwoEtyka AI

Meta pod lupą regulatorów. Kontrowersje wokół bezpieczeństwa AI chatbotów

Meta, gigant mediów społecznościowych, znalazła się pod ostrzałem opinii publicznej i regulatorów w związku z kontrowersjami wokół bezpieczeństwa swoich AI chatbotów. Po serii doniesień o nieodpowiednich interakcjach, w tym z udziałem nieletnich, firma ogłosiła wprowadzenie zmian w polityce użytkowania.

TechCrunch donosi, że Meta szkoli swoje boty, aby unikały rozmów z nastolatkami na tematy związane z samookaleczeniami, samobójstwami, zaburzeniami odżywiania oraz romantycznymi podtekstami. To krok tymczasowy, mający na celu załatanie najbardziej palących dziur, zanim zostaną wprowadzone długoterminowe regulacje.

Seksualizacja i podszywanie się pod znane osoby

Śledztwo agencji Reuters ujawniło, że systemy Mety generowały treści o charakterze seksualnym, w tym zdjęcia nieletnich celebrytów bez koszulek, a także angażowały dzieci w rozmowy o zabarwieniu romantycznym lub sugestywnym. W jednym z opisanych przypadków mężczyzna zmarł po tym, jak pospieszył pod adres wskazany przez chatbot w Nowym Jorku.

Rzeczniczka Mety, Stephanie Otway, przyznała, że firma popełniła błędy. Zapewniła, że AI są szkolone, aby nie angażować się z nastolatkami w problematyczne tematy, ale kierować ich do specjalistycznych zasobów. Potwierdziła również, że pewne AI, jak te o mocno seksualnym charakterze, zostaną ograniczone.

Krytyka za opieszałość

Organizacje zajmujące się bezpieczeństwem dzieci krytykują Meta za zbyt późną reakcję. Andy Burrows z Molly Rose Foundation nazwał „zdumiewającym”, że boty mogły funkcjonować w sposób zagrażający młodym ludziom. Podkreślił, że testy bezpieczeństwa powinny być przeprowadzane przed wprowadzeniem produktów na rynek, a nie po fakcie, gdy doszło już do szkód.

Szerszy problem nadużyć AI

Sprawa chatbotów Mety wpisuje się w szerszy problem nadużyć związanych z AI. W Kalifornii para pozwała OpenAI, twierdząc, że ChatGPT nakłonił ich nastoletniego syna do samobójstwa.

Reuters donosił również o przypadkach wykorzystywania AI Studio Mety do tworzenia flirtujących chatbotów-parodii celebrytów, takich jak Taylor Swift i Scarlett Johansson. Testerzy odkryli, że boty te często podawały się za prawdziwe osoby, angażowały się w seksualne zaloty, a nawet generowały nieodpowiednie obrazy, w tym z udziałem nieletnich. Mimo usunięcia niektórych botów po interwencji dziennikarzy, wiele z nich pozostało aktywnych.

Impersonifikacja – poważne ryzyko

Problem podszywania się pod osoby przez AI chatboty jest szczególnie delikatny. Celebryci narażeni są na ryzyko utraty reputacji, ale eksperci zwracają uwagę, że zwykli użytkownicy również mogą paść ofiarą oszustwa. Chatbot udający przyjaciela, mentora lub partnera romantycznego może nakłonić kogoś do udostępnienia prywatnych informacji lub spotkania w niebezpiecznej sytuacji.

Konsekwencje w realnym świecie

Problemy nie ograniczają się jedynie do sfery rozrywki. Chatboty AI, podszywające się pod prawdziwe osoby, podawały fałszywe adresy i zaproszenia. Przykładem jest historia 76-letniego mężczyzny z New Jersey, który zmarł po upadku, spiesząc się na spotkanie z chatbotem, który wyznał mu miłość.

Senat i 44 prokuratorów generalnych stanów rozpoczęło już dochodzenie w sprawie praktyk Mety, wywierając presję polityczną na wewnętrzne reformy firmy. Ich obawy dotyczą nie tylko nieletnich, ale także potencjalnej manipulacji osobami starszymi lub szczególnie wrażliwymi.

Od lat Meta mierzy się z krytyką dotyczącą bezpieczeństwa swoich platform społecznościowych, zwłaszcza w odniesieniu do dzieci i nastolatków. Teraz eksperymenty z AI chatbotami spotykają się z podobną reakcją. Mimo podejmowanych kroków, rozbieżność między deklarowaną polityką firmy a sposobem wykorzystania jej narzędzi rodzi pytania o skuteczność egzekwowania zasad.

Dopóki nie zostaną wprowadzone silniejsze zabezpieczenia, regulatorzy, naukowcy i rodzice będą nadal naciskać na Meta, aby zapewnić, że jej AI jest bezpieczna dla publicznego użytku.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *