Grok pod lupą: Koalicja organizacji żąda usunięcia technologii xAI z administracji federalnej
Administracja federalna USA znalazła się pod silną presją ze strony koalicji organizacji non-profit, które domagają się natychmiastowego zaprzestania wdrażania chatbota Grok w strukturach państwowych. List otwarty, podpisany m.in. przez Public Citizen oraz Center for AI and Digital Policy, wskazuje na szereg incydentów, które zdaniem sygnatariuszy czynią narzędzie xAI niebezpiecznym i niezgodnym z rządowymi standardami bezpieczeństwa technologii. Głównym zarzutem jest masowe generowanie treści seksualnych bez zgody realnych osób, w tym dzieci, oraz promowanie szkodliwych teorii spiskowych.
Seksualne deepfake’i i systemowe błędy
Spór wokół Groka eskalował po tym, jak użytkownicy platformy X zaczęli masowo wykorzystywać model do tworzenia pornograficznych deepfake’ów. Według części raportów algorytm generował tysiące takich obrazów na godzinę. Eksperci alarmują, że nie jest to wynik jednostkowego błędu, lecz fundamentalna wada systemu filtrującego treści. „To głęboko niepokojące, że rząd federalny kontynuuje wdrażanie produktu AI wykazującego systemowe awarie skutkujące generowaniem materiałów pornograficznych z udziałem dzieci” – czytamy w apelu do Biura Zarządzania i Budżetu (OMB). Koalicja zauważa, że obecność Groka w administracji stoi w sprzeczności z oficjalnymi wytycznymi Białego Domu dotyczącymi bezpiecznej i odpowiedzialnej sztucznej inteligencji.
Przetwarzanie dokumentów niejawnych
Największe obawy merytoryczne budzi jednak obecność Groka w Pentagonie. Sekretarz obrony Pete Hegseth potwierdził niedawno, że chatbot obok modelu Gemini od Google będzie pracował wewnątrz sieci Pentagonu, mając dostęp zarówno do dokumentów jawnych, jak i niejawnych. Specjaliści od cyberbezpieczeństwa ostrzegają, że wykorzystywanie systemów o zamkniętym kodzie (ang. proprietary cloud AI) w tak wrażliwym środowisku to ryzyko najwyższej rangi. Andrew Christianson, były współpracownik NSA, zauważa, że brak możliwości audytu algorytmów xAI oznacza, iż Pentagon nie posiada pełnej kontroli nad sposobem podejmowania decyzji przez model ani nad tym, gdzie faktycznie trafiają przetwarzane dane.
Konflikt interesów i ideologia w tle
Część ekspertów zwraca uwagę na polityczny aspekt sprawy. Grok jest pozycjonowany jako rozwiązanie „anty-woke”, co zdaniem JB Brancha z Public Citizen może sprawiać, że obecna administracja przymyka oko na jego uchybienia. Model xAI był już wcześniej oskarżany o szerzenie dezinformacji wyborczej, antysemityzmu oraz promowanie „naukowego rasizmu”. Mimo że państwa takie jak Indonezja czy Filipiny czasowo blokowały dostęp do Groka, a Unia Europejska prowadzi dochodzenia w sprawie naruszeń prywatności, amerykańscy urzędnicy na razie nie zdecydowali się na odcięcie xAI od federalnych kontraktów wartych miliony dolarów.
Konieczność audytu i wstrzymania prac
Sygnatariusze listu domagają się nie tylko wycofania narzędzia, ale również pełnego dochodzenia w sprawie procesów nadzorczych, które dopuściły Groka do użytku w agencjach rządowych. Pytania dotyczą m.in. tego, czy model spełnia wymogi neutralności i rzetelności nałożone na systemy LLM przez rozporządzenia wykonawcze. W obliczu doniesień o indeksowaniu prywatnych rozmów z Grokiem przez wyszukiwarkę Google oraz skłonności modelu do generowania agresywnych, seksistowskich treści, pauza we wdrażaniu wydaje się dla krytyków jedynym rozsądnym rozwiązaniem, zanim technologia ta zostanie na stałe zintegrowana z kluczowymi systemami państwa.
