Google Gemini pod lupą: ocena bezpieczeństwa dla dzieci i młodzieży budzi poważne zastrzeżenia
Google Gemini, najnowszy model AI od giganta z Mountain View, znalazł się pod ostrzałem krytyki. Organizacja Common Sense Media, znana z oceniania mediów i technologii pod kątem bezpieczeństwa dla dzieci, opublikowała raport, w którym uznaje Gemini za produkt „wysokiego ryzyka” dla młodszych użytkowników. Mimo wprowadzonych filtrów, platforma nadal może narażać dzieci i młodzież na nieodpowiednie treści.
W opinii Common Sense Media, problem leży w podejściu Google’a. Zamiast tworzyć oddzielne, w pełni bezpieczne wersje Gemini dla różnych grup wiekowych, firma oparła się na modyfikacji istniejącej, „dorosłej” wersji. Dodatkowe zabezpieczenia okazują się niewystarczające.
Raport wskazuje, że Gemini, nawet w wersjach przeznaczonych dla dzieci i nastolatków, może udostępniać materiały związane z seksem, narkotykami, alkoholem, a także oferować potencjalnie szkodliwe porady dotyczące zdrowia psychicznego. To szczególnie niepokojące w kontekście doniesień o wpływie AI na przypadki samobójstw wśród młodzieży.
Przypomnijmy, że OpenAI, twórca ChatGPT, mierzy się z pozwem o nieumyślne spowodowanie śmierci po tym, jak 16-latek, korzystając z chatbota, miał planować swoje samobójstwo. Podobny pozew dotyczył firmy Character.AI.
Krytyka Common Sense Media pojawia się w momencie, gdy przecieki sugerują, że Apple rozważa wykorzystanie Gemini jako podstawy dla ulepszonej, opartej na AI Siri. Jeśli Apple zdecyduje się na ten krok, a obawy dotyczące bezpieczeństwa nie zostaną odpowiednio zaadresowane, jeszcze większa liczba młodych ludzi może być narażona na wspomniane ryzyko.
„Gemini radzi sobie z podstawami, ale zawodzi w szczegółach” – komentuje Robbie Torney, dyrektor programów AI w Common Sense Media. „Platforma AI dla dzieci powinna odpowiadać na ich specyficzne potrzeby, a nie traktować wszystkich jednakowo. Bezpieczeństwo i efektywność AI dla młodszych użytkowników wymagają uwzględnienia ich rozwoju, a nie tylko modyfikacji produktu przeznaczonego dla dorosłych.”
Google odpiera zarzuty, zapewniając, że stale udoskonala swoje zabezpieczenia i konsultuje się z ekspertami. Firma przyznaje jednak, że niektóre odpowiedzi Gemini nie są zgodne z założeniami i wprowadza dodatkowe środki ostrożności.
Warto dodać, że Common Sense Media przeprowadziło już wcześniej podobne oceny innych platform AI, w tym OpenAI, Perplexity, Claude oraz Meta AI. Najgorzej ocenione zostały Meta AI i Character.AI, uznane za „niedopuszczalne”. Perplexity otrzymało notę „wysokiego ryzyka”, ChatGPT – „umiarkowanego”, a Claude – „minimalnego” (platforma skierowana jest do użytkowników powyżej 18 roku życia).
Wyniki raportu Common Sense Media stawiają pod znakiem zapytania obecne podejście do tworzenia narzędzi AI dla dzieci i młodzieży. Czy filtry i modyfikacje wystarczą, by zapewnić im bezpieczeństwo, czy też potrzebne są zupełnie nowe rozwiązania, projektowane z myślą o ich specyficznych potrzebach?
