Etyka AI

New York Times zrywa współpracę z recenzentem po wykryciu plagiatu wygenerowanego przez AI

Prestiżowy dziennik New York Times zakończył współpracę z Aleksem Prestonem, uznanym recenzentem literackim, po tym jak w jego ostatnim tekście odkryto fragmenty pochodzące z zewnętrznych źródeł. Incydent dotyczył recenzji powieści „Watching Over Her” autorstwa Jeana-Baptiste’a Andrei. Jak się okazało, autor wsparł się narzędziem sztucznej inteligencji, które zamiast jedynie asystować w procesie twórczym, dopuściło się ordynarnego plagiatu.

Algorytm pod lupą czytelników

Preston, przyznając się do błędu, wyraził głębokie zawstydzenie i określił swoje działanie jako „poważną pomyłkę”. Problem polegał na tym, że wykorzystane przez niego narzędzie AI przeszukało zasoby sieci i bez wiedzy autora zaimplementowało całe fragmenty z tekstu Christobel Kent, opublikowanego wcześniej na łamach dziennika The Guardian. Podobieństwo było uderzające – niektóre zdania były niemal identyczne. Sprawę nagłośnił czujny czytelnik, co zmusiło redakcję Timesa do błyskawicznej reakcji i usunięcia freelancera ze swojego zespołu.

Sytuacja ta rzuca światło na powszechny brak zrozumienia mechanizmów działania współczesnych modeli językowych. Wielu dziennikarzy traktuje AI jak zaawansowany edytor tekstu, zapominając, że narzędzia te często agresywnie przeszukują internet (tzw. scraping) i kompilują cudzą własność intelektualną bez podawania źródła.

Kryzys halucynacji i braku weryfikacji

To niejedyny w ostatnim czasie przypadek kompromitacji redakcyjnej wynikającej z bezrefleksyjnego korzystania ze sztucznej inteligencji. Niedawno serwis Ars Technica musiał wycofać artykuł, w którym znalazły się całkowicie zmyślone cytaty przypisane deweloperowi oprogramowania. W tamtym przypadku redaktor korzystający z ChatGPT nie sprawdził, że system nie miał dostępu do blokowanej witryny źródłowej. Model, nie mogąc odczytać treści, po prostu wygenerował wiarygodnie brzmiące kłamstwa na podstawie samego adresu URL.

Wspólnym mianownikiem tych wpadek nie jest wadliwa technologia, lecz zaniedbanie podstawowych zasad rzemiosła dziennikarskiego. W dobie automatyzacji, funkcja kontrolna redaktora staje się krytycznym punktem oporu przed zalewem treści nieprawdziwych lub skradzionych. Przypadek Prestona pokazuje jasno: współczesna redakcja nie może pozwolić sobie na luksus bezgranicznego zaufania do algorytmów, jeśli chce zachować wiarygodność, za którą czytelnicy płacą abonament.