Sztuczna inteligencja weryfikuje naukę: szansa czy zagrożenie dla zaufania publicznego?
Fundamentem nauki jest samokorekta, a jednym z jej filarów – recenzja naukowa. Proces, w którym anonimowi eksperci analizują badania przed ich publikacją, ma na celu zapewnienie rzetelności. Mimo to, system nie jest idealny. Problemy nadal przedostają się do obiegu, co prowadzi do różnych inicjatyw mających na celu identyfikację błędnych prac, wzmacnianie procesu recenzowania i oczyszczanie dorobku naukowego poprzez wycofywanie publikacji lub zamykanie nierzetelnych czasopism. Wysiłki te są jednak fragmentaryczne i zasobochłonne.
Wyzwania obecnego systemu recenzji
W ostatnich dekadach nastąpił gwałtowny wzrost liczby publikacji naukowych i czasopism, częściowo napędzany komercjalizacją wydawnictw. Ta ekspansja otworzyła drzwi do nadużyć, takich jak tzw. 'fabryki artykułów’, sprzedające szybkie publikacje z minimalną weryfikacją naukowcom desperacko potrzebującym punktów do CV. Jednocześnie, korporacje wykorzystują luki w systemie, finansując niskiej jakości badania i zlecając pisanie artykułów, by kształtować politykę publiczną i opinię społeczną na swoją korzyść. Przykładem jest szeroko cytowana analiza bezpieczeństwa glifosatu, która – jak ujawniły dokumenty procesowe przeciwko Monsanto – została napisana przez pracowników firmy i opublikowana w czasopiśmie powiązanym z przemysłem tytoniowym.
Takie incydenty, gdy wychodzą na jaw, nie zawsze są postrzegane jako triumf samokorekty. Zamiast tego, mogą podważyć zaufanie publiczne, rodząc przekonanie, że w nauce „coś jest nie tak”. Akcje takie jak Retraction Watch, czy praca dziennikarzy śledczych demaskujących wpływy korporacji, są kluczowe, ale nie rozwiązują problemu systemowo.
Potencjale możliwości sztucznej inteligencji
Narzędzia oparte na sztucznej inteligencji, takie jak ImageTwin czy Proofig, już teraz skanują miliony grafik w poszukiwaniu duplikacji, manipulacji czy artefaktów generowanych przez AI. Z kolei narzędzia przetwarzania języka naturalnego identyfikują „splątane frazy” – charakterystyczne dla nierzetelnych publikacji. Modele sztucznej inteligencji, zwłaszcza te zdolne do wnioskowania i operowania logiką, będą wkrótce w stanie wykrywać bardziej subtelne błędy. Przykładem jest projekt Black Spatula, który bada zdolność AI do weryfikacji dowodów matematycznych na dużą skalę, automatycznie identyfikując niespójności algebraiczne, które umknęły ludzkim recenzentom. Udostępnienie pełnotekstowych baz danych i dostatecznej mocy obliczeniowej może wkrótce umożliwić globalny audyt dorobku naukowego. Taki audyt nie tylko wykryje bezpośrednie oszustwa, ale także pozwoli na ujawnienie ogromnej liczby rutynowych prac zawierających podstawowe błędy.
Dla naukowców, świadomość, że znaczna część publikowanych prac jest rzadko lub nigdy cytowana, nie jest zaskoczeniem. Dla osób spoza środowiska naukowego, takie odkrycie może być równie szokujące jak oszustwo, gdyż kontrastuje z powszechnym wizerunkiem nauki jako pasma heroicznych odkryć. Co więcej, wyniki audytu przeprowadzonego przez „bezstronną i kompetentną” AI mogą zyskać na wiarygodności, ale jednocześnie być narażone na wykorzystanie w kampaniach dezinformacyjnych.
Potrzeba redefinicji ideału nauki
Ochrona zaufania publicznego wymaga redefinicji roli naukowca na bardziej transparentnych i realistycznych zasadach. Większość współczesnych badań ma charakter inkrementalny, służący podtrzymywaniu kariery, edukacji i integracji społecznej. Aby być uczciwymi zarówno wobec siebie, jak i społeczeństwa, musimy porzucić mechanizmy instytucjonalne, które wywierają presję na uniwersytety, wydawców i samych naukowców, aby wyolbrzymiać znaczenie ich pracy. Przełomowe odkrycia są rzadkością, ale to nie umniejsza wartości reszty dorobku naukowego.
Bardziej pokorny i szczery obraz naukowca, jako współtwórcy zbiorowego, ewoluującego zrozumienia, będzie bardziej odporny na weryfikację opartą na AI niż mit nauki jako pasma indywidualnych przełomów. Audyt naukowy, wspomagany przez sztuczną inteligencję, jest nieuchronny. Może zostać zainicjowany przez instytucje rządowe, think tanki, grupy antyscience’owe lub korporacje dążące do podważenia zaufania publicznego do nauki. Naukowcy mogą przewidzieć, co ujawni. Jeśli społeczność naukowa przygotuje się na te odkrycia – lub, co jeszcze lepiej, sama przejmie inicjatywę – audyt może zainspirować zdyscyplinowaną odnowę. Opóźnienie reakcji może sprawić, że ujawnione niedoskonałości zostaną zinterpretowane jako pęknięcia w samej tkance nauki.
Siła nauki nigdy nie pochodziła z jej nieomylności. Jej wiarygodność leży w gotowości do korekty i naprawy. Musimy teraz publicznie zademonstrować tę gotowość, zanim zaufanie zostanie bezpowrotnie utracone.
