Gen AI

Wikipedia zaostrza kurs wobec AI: koniec z artykułami tworzonymi przez boty

Koniec z redakcyjną szarą strefą

Wikipedia, od lat będąca bastionem wiedzy weryfikowanej przez wolontariuszy, oficjalnie zamyka drzwi przed tekstami generowanymi przez sztuczną inteligencję. Decyzja ta jest wynikiem aktualizacji regulaminu, który do tej pory operował w sferze niedomówień. Poprzednie zapisy sugerowały jedynie, że modele językowe (LLM) nie powinny być wykorzystywane do tworzenia artykułów od zera. Nowe brzmienie zasad nie pozostawia już jednak pola do interpretacji: wykorzystywanie sztucznej inteligencji do generowania lub przeredagowywania treści haseł jest surowo zabronione.

Zmiana ta jest bezpośrednią odpowiedzią na rosnące obawy o jakość i wiarygodność informacji. W strukturach Wikipedii, gdzie każde zdanie powinno mieć pokrycie w źródłach, skłonność modeli AI do tzw. halucynacji – czyli zmyślania faktów w sposób brzmiący przekonująco – stanowi egzystencjalne zagrożenie dla misji serwisu.

Głos społeczności był niemal jednogłośny

Jak donosi serwis 404 Media, nowe restrykcje nie zostały narzucone odgórnie, lecz wypracowane w drodze demokratycznego głosowania redaktorów. Wynik 40 do 2 głosów na korzyść zakazu pokazuje, jak silny opór stawiają doświadczeni twórcy wobec zalewu treści syntetycznych. Społeczność obawia się, że dopuszczenie AI do głównego nurtu edycyjnego zmusiłoby moderatorów do nieskończonej walki z błędami merytorycznymi, których wykrycie w gładko napisanym tekście algorytmicznym jest znacznie trudniejsze niż w przypadku tradycyjnego wandalizmu.

Margines dla technologii pod ścisłym nadzorem

Mimo kategorycznego zakazu publikacji treści z AI, Wikipedia nie staje się całkowitą strefą wolną od algorytmów. Nowa polityka dopuszcza pewne ustępstwa, o ile pozostają one pod pełną kontrolą człowieka. Redaktorzy mogą wspomagać się modelami LLM w celu uzyskania sugestii dotyczących korekty językowej własnych tekstów. Warunek jest jeden: sztuczna inteligencja nie może dodawać żadnych nowych faktów ani zmieniać sensu wypowiedzi.

Wprowadzone wytyczne kładą szczególny nacisk na ostrożność. Dokument ostrzega, że narzędzia te potrafią wykroczyć poza proste polecenia edytorskie, modyfikując wydźwięk tekstu tak, że przestaje on być wspierany przez cytowane źródła. Tym samym Wikipedia stawia na model hybrydowy, w którym AI może pełnić rolę pomocniczego korektora, ale nigdy nie stanie się samodzielnym autorem.