Etyka AISocial media

Fala niekonsensualnych deepfake’ów na X, generowanych przez Groka, stawia wyzwania regulacyjne

W ciągu ostatnich kilku tygodni platforma X stała się areną masowego rozpowszechniania niekonsensualnych obrazów o charakterze nagości, generowanych przez chatbota Grok, stworzonego przez firmę xAI Elona Muska. Skala zjawiska jest alarmująca – odnotowano, że obrazy te dotknęły szerokie grono kobiet, obejmujące zarówno znane modelki i aktorki, jak i postaci ze świata wiadomości, ofiary przestępstw, a nawet światowych liderów.

Badanie przeprowadzone przez Copyleaks 31 grudnia 2025 roku szacowało początkowo, że na platformie pojawia się jeden taki obraz na minutę. Późniejsze analizy wykazały jednak znacznie większą skalę problemu: 5 i 6 stycznia 2026 roku odnotowano 6700 takich obrazów na godzinę, co stanowi drastyczny wzrost i podkreśla pilność sytuacji.

Międzynarodowa reakcja i wyzwania regulacyjne

Oburzenie wywołane brakiem odpowiednich zabezpieczeń w modelu Grok skłoniło wielu publicznych krytyków do poddania w wątpliwość decyzji o jego wypuszczeniu bez odpowiednich mechanizmów ochronnych. Problem uwydatnia ograniczenia obecnych ram regulacji technologicznych i stanowi poważne wyzwanie dla organów nadzorczych dążących do skutecznego ujarzmienia nowych technologii. Krytyczne spojrzenie na tę sytuację jest uzasadnione — decyzja o udostępnieniu narzędzia o tak destrukcyjnym potencjale bez solidnych mechanizmów kontroli wskazuje na poważne zaniedbania.

Najbardziej zdecydowane kroki podjęła Komisja Europejska, która w czwartek nakazała xAI zachowanie wszystkich dokumentów związanych z chatbotem Grok do końca 2026 roku. Choć nie jest to równoznaczne z otwarciem nowego dochodzenia, często stanowi jego wstęp, co w połączeniu z doniesieniami CNN sugerującymi osobistą interwencję Elona Muska w celu zaniechania umieszczenia zabezpieczeń w Groku, nadaje tej decyzji szczególnie poważny wydźwięk.

Chociaż X usunęło publiczną zakładkę medialną dla konta Groka, nie jest jasne, czy wprowadzono jakiekolwiek techniczne zmiany w samym modelu. Firma wydała oświadczenie potępiające wykorzystywanie narzędzi AI do tworzenia treści związanych z wykorzystywaniem seksualnym dzieci, zapowiadając konsekwencje dla użytkowników generujących nielegalne treści.

Globalne ostrzeżenia i lokalne działania

Organy regulacyjne na całym świecie wydały surowe ostrzeżenia. Brytyjski Ofcom poinformował o kontakcie z xAI i zapowiedział szybką ocenę potencjalnych naruszeń. Premier Wielkiej Brytanii, Keir Starmer, nazwał zjawisko „haniebnym” i „obrzydliwym”, udzielając pełnego poparcia Ofcomowi. Australijska komisarz ds. eSafety, Julie Inman-Grant, odnotowała podwojenie skarg związanych z Grokiem od końca 2025 roku, zapowiadając wykorzystanie dostępnych narzędzi regulacyjnych.

Największym rynkiem, który zagroził działaniami, są Indie. Tamtejszy regulator telekomunikacyjny, MeitY, nakazał X rozwiązanie problemu i złożenie raportu w ciągu 72 godzin, termin ten później przedłużono. Mimo złożonego raportu nie wiadomo, czy MeitY uzna odpowiedź za satysfakcjonującą. W przeciwnym razie X może stracić status bezpiecznej przystani w Indiach, co poważnie ograniczyłoby jej działalność w tym kraju. Sytuacja ta stawia pod znakiem zapytania nie tylko zdolność X do efektywnego moderowania treści, ale także etykę i odpowiedzialność firm rozwijających zaawansowane technologie AI.