Grok za paywallem: czy xAI monetyzuje nadużycia zamiast je eliminować?
Monetyzacja nadużyć czy próba rozwiązania problemu?
Firma jak dotąd nie potwierdziła oficjalnie, że generowanie obrazów stało się funkcją wyłącznie płatną. Wiadomości wyświetlane użytkownikom, które przekierowują do rocznej subskrypcji za 395 dolarów, sugerują jednak, że X traktuje to jako „funkcję premium”. Eksperci są zgodni: to posunięcie jest niewystarczające i stanowi de facto „monetyzację nadużyć”.
Emma Pickering z brytyjskiej organizacji charytatywnej Refuge, zajmującej się przemocą domową, podkreśla, że choć ograniczenie dostępu może „marginesowo zmniejszyć wolumen i poprawić identyfikowalność”, to „nadużycie nie zostało powstrzymane. Zostało po prostu umieszczone za paywallem, co pozwala X czerpać zyski ze szkodliwych działań”. Podobne stanowisko wyraził rząd brytyjski, który nazwał tę zmianę „obraźliwą” dla dotkniętych problemem osób, twierdząc, że „zwyczajnie zamienia funkcję SI, która pozwala na tworzenie bezprawnych obrazów, w usługę premium”.
Luki w systemie i fundamentalne problemy
Mimo wprowadzonych ograniczeń problem wydaje się nie być rozwiązany holistycznie. Paul Bouchaud, wiodący badacz z AI Forensics, zauważa, że model Groka wciąż jest w stanie generować seksualizowane obrazy, nawet jeśli jest ich mniej. Badania przeprowadzone przez portal Wired wykazały, że nawet po zmianach zweryfikowani użytkownicy mogli zlecać Grokowi tworzenie obrazów kobiet w „lateksowej bieliźnie” czy „plastikowym bikini”.
Co więcej, problem nie ogranicza się wyłącznie do platformy X. Niezależna aplikacja i strona internetowa Groka nadal umożliwiają generowanie wysoce sugestywnych, a nawet agresywnych filmów, w tym z udziałem celebrytów. Bouchaud potwierdził, że udało mu się „wygenerować wideo z treściami o charakterze seksualnym bez żadnych ograniczeń” z niezweryfikowanego konta.
Henry Ajder, ekspert do spraw deepfake’ów, sceptycznie ocenia skuteczność nowego rozwiązania: „Za cenę miesięcznej subskrypcji wydaje się prawdopodobne, że nadal mógłbym tworzyć niedopuszczalne treści, używając fałszywego nazwiska i jednorazowej metody płatności”.
Decyzja X budzi pytania o rzeczywiste intencje firmy. Czy chodzi o odpowiedzialne zarządzanie technologią, czy raczej o znalezienie sposobu na monetyzację kontrowersyjnej funkcji? Krytycy wskazują, że X i xAI miały inne opcje, takie jak całkowite usunięcie możliwości generowania szkodliwych treści czy wyłączenie funkcji tworzenia pornograficznych filmów. Fakt, że tego nie zrobiono, sugeruje, że obecne rozwiązanie jest jedynie powierzchowną próbą rozwiązania problemu, która nie adresuje jego fundamentalnych przyczyn.
