Social media

X testuje generowanie notatek społecznościowych przez sztuczną inteligencję

Platforma X, dawniej znana jako Twitter, wdraża nową, pilotażową funkcję, która pozwala chatbotom opartym na sztucznej inteligencji, w tym wewnętrznemu Grokowi, na generowanie notatek społecznościowych. To posunięcie stanowi rozszerzenie istniejącego od czasu Twittera mechanizmu Community Notes, który Elon Musk zintensyfikował po przejęciu serwisu.

Community Notes to system, w którym użytkownicy mogą dodawać kontekst do postów, szczególnie tych wprowadzających w błąd lub niejasnych, na przykład w przypadku filmów generowanych przez AI bez wyraźnego zaznaczenia ich syntetycznego pochodzenia. Notatki te stają się publiczne dopiero po uzyskaniu konsensusu wśród grup użytkowników, którzy wcześniej różnieli się w ocenach treści. Sukces tego rozwiązania na X zainspirował podobne inicjatywy w Meta, TikToku i YouTube, z czego Meta całkowicie wycofała się z zewnętrznych programów fact-checkingowych na rzecz tego niskokosztowego, społecznościowego modelu.

Wprowadzenie sztucznej inteligencji do roli fact-checkera budzi jednak zasadnicze wątpliwości. Biorąc pod uwagę powszechną skłonność algorytmów AI do „halucynacji” – czyli generowania nieprawdziwych lub nieistniejących faktów – istnieje realne ryzyko, że notatki tworzone przez AI będą zawierać błędy lub wprowadzać w błąd. Mimo że każda notatka przesłana przez AI będzie podlegać takiemu samemu procesowi weryfikacji jak te stworzone przez ludzi, sama możliwość masowego generowania wstępnych treści przez maszyny może znacząco zwiększyć obciążenie weryfikatorów.

Badania przeprowadzone przez zespół pracujący nad Community Notes na X sugerują, że optymalne rozwiązanie to tandem człowiek-AI. Ludzka interwencja i feedback mogą wzmocnić proces generowania notatek przez AI poprzez uczenie wzmacniające, a ludzcy moderatorzy pozostawaliby ostatecznym filtrem przed publikacją. Celem, jak podkreślają badacze, nie jest automatyczne dyktowanie użytkownikom, co mają myśleć, lecz „budowanie ekosystemu, który umożliwia ludziom bardziej krytyczne myślenie i lepsze rozumienie świata”.

Niemniej jednak, zbyt duże poleganie na sztucznej inteligencji, zwłaszcza z możliwością integracji zewnętrznych modeli LLM, niesie ze sobą ryzyko. Przykładowo, problem sycophancy (nadmiernej uniżoności) w modelach takich jak ChatGPT może prowadzić do tego, że AI będzie priorytetowo traktować „użyteczność” ponad rzetelność w weryfikacji faktów, co może skutkować nieprawidłowymi lub wręcz fałszywymi notatkami. Dodatkowo, istnieje obawa, że ludzcy weryfikatorzy, działający w ramach wolontariatu, zostaną przytłoczeni ogromem treści generowanych przez sztuczną inteligencję, co obniży ich motywację do rzetelnego wykonywania zadań.

X planuje testować wkład AI w notatki społecznościowe przez kilka tygodni, zanim zdecyduje się na szersze wdrożenie. Użytkownicy nie powinni więc od razu spodziewać się zalewu notatek generowanych przez sztuczną inteligencję na platformie.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *