Unia Europejska bierze pod lupę Groka. Czy chatbot Muska narusza prawo?
Ryzykowny poligon Muska
Europejscy regulatorzy nie dają Elonowi Muskowi taryfy ulgowej. Nowe śledztwo Komisji Europejskiej koncentruje się na analizie ryzyka, jaką platforma X powinna przeprowadzić przed udostępnieniem narzędzia Grok na terenie Unii. Bruksela sprawdza, czy firma podjęła wystarczające kroki, aby zapobiec wykorzystywaniu chatbota do generowania i dystrybucji treści toksycznych oraz skrajnie niebezpiecznych, w tym zmanipulowanych obrazów o charakterze seksualnym (deepfakes) czy materiałów przedstawiających wykorzystywanie dzieci.
Fala toksycznych obrazów
Bezpośrednim impulsem do zaostrzenia działań były raporty Center for Countering Digital Hate (CCDH) oraz doniesienia „New York Timesa”. Dane są alarmujące: w ciągu zaledwie dziewięciu dni na przełomie roku Grok wygenerował co najmniej 1,8 miliona zseksualizowanych obrazów. Mechanizm fali był kuriozalny – po tym, jak Elon Musk opublikował stworzony przez AI obraz samego siebie w bikini, użytkownicy zaczęli masowo instruować bota do „rozbierania” realnych kobiet i dzieci na zdjęciach. Platforma zareagowała na ten proceder z ogromnym opóźnieniem, wprowadzając blokady dopiero po ośmiu dniach destrukcyjnej aktywności użytkowników.
Algorytmiczna niepewność i recydywa
Obecne śledztwo to tylko jeden z frontów walki o transparentność X. Komisja rozszerzyła istniejące już postępowanie z 2023 roku o analizę nowego systemu rekomendacji, opartego właśnie na silniku Groka (tzw. Phoenix scorer). Eksperci obawiają się, że silne uprzedzenia i brak filtrów wbudowanych w AI Muska mogą drastycznie pogorszyć jakość moderacji na platformie. Warto przypomnieć, że w grudniu 2023 roku na firmę nałożono już karę w wysokości 120 milionów euro za m.in. brak transparentności reklamowej i stosowanie zwodniczych interfejsów (dark patterns).
Cena wolności słowa w wydaniu X
Jeżeli dochodzenie wykaże, że X zignorowało obowiązki wynikające z DSA, portalowi grożą gigantyczne kary finansowe sięgające do 6% globalnego obrotu. Dla Komisji Europejskiej sprawa Groka jest testem skuteczności nowych przepisów w starciu z dynamicznie rozwijającymi się modelami AI. Pytanie brzmi nie tylko o to, co generuje chatbot, ale o to, czy jakakolwiek platforma o znaczeniu systemowym może pozwolić sobie na wdrażanie narzędzi bez wcześniejszego audytu ich bezpieczeństwa społecznego.
