EdukacjaNauka

AI w nauce: skok wydajności, ryzyko jakości. Uczelnie wciąż bez jasnych zasad

AI bezszelestnie wchodzi do nauki: potrafi porządkować dane, redagować teksty, a nawet rekonstruować zaginione zabytki kultury. Jednocześnie wprowadza do obiegu publikacje, które wyglądają na napisane przez maszyny — bywa, że w renomowanych tytułach. Polskie uczelnie dopiero uczą się, jak z tym żyć: brakuje jednolitych zasad, a dostępne narzędzia weryfikacji nie nadążają.

Ślady ChatGPT w czołowych czasopismach

Dr hab. Artur Strzelecki z Uniwersytetu Ekonomicznego w Katowicach przeanalizował artykuły indeksowane w Scopus i Web of Science pod kątem charakterystycznych dla modeli językowych wstawek. Chodzi o frazy, których autorzy nie usunęli, np. „według stanu mojej wiedzy na rok 2021…”, „oczywiście, oto dalsze dane…”, czy „wygeneruj odpowiedź ponownie”.

Wynik: 89 publikacji z oczywistymi śladami AI. Z nich 28 ukazało się w tytułach z percentylem Scopusa 90 lub więcej, dwa w 99. percentylu. Łącznie 64 teksty trafiły do czasopism Q1, 25 do Q2. Najwięcej przypadków odnotowano w medycynie (19), informatyce (17) i inżynierii (16), dalej w naukach o środowisku (10), a po siedem w socjologii, edukacji i zarządzaniu; sześć w ekonomii.

To nie jest pełny obraz zjawiska — badanie wychwyciło przede wszystkim niechlujność. Polerowane przez autorów fragmenty generowane przez AI pozostają niewidoczne dla takiej metody. Liczby mówią jednak wprost: ślady maszynowej redakcji przeniknęły do głównego nurtu nauki.

Pół internetu od maszyn? Z dystansem do statystyk

Równolegle jeden z serwisów twierdzi, że już w listopadzie ubiegłego roku 52 proc. anglojęzycznych treści w sieci mogło być wygenerowanych przez AI. Tego typu estymacje zależą od jakości detektorów i doboru próby — a z tymi bywa różnie. Narzędzia potrafią mylić się w obie strony: zarówno „oznakować” teksty pisane przez człowieka, jak i przepuszczać te poprawiane przez tzw. „uczłowieczacze”.

Sygnał jest jednak czytelny: objętość treści wspieranych przez modele językowe rośnie szybciej niż zdolność instytucji do ich wiarygodnego rozpoznawania.

Uczelnie bez mapy: praktyka wyprzedza regulacje

„Wciąż brakuje jasnych standardów dotyczących korzystania z AI na uczelniach” — mówi prof. Grzegorz Krawiec z Uniwersytetu Komisji Edukacji Narodowej w Krakowie. Zamiast zakazywać, zmienił sposób pracy ze studentami: zrezygnował z zadań, które AI wykonuje w sekundy, i wymaga analizy orzecznictwa oraz prezentacji wniosków na forum grupy.

Profesor nie demonizuje narzędzi, ale ostrzega przed bezrefleksyjnością. Widzi prace „gładkie” stylistycznie, a puste merytorycznie — efekt bezkrytycznego kopiowania generowanych odpowiedzi. W dodatku Jednolity System Antyplagiatowy, wzbogacony o moduł detekcji AI, bywa zawodny. „Zdarzały się prace, które system oznaczał w całości jako wygenerowane, choć były szczegółowo konsultowane i pisane samodzielnie” — przyznaje.

Promotor ważniejszy niż detektor

Prof. Grzegorz Wierczyński z Uniwersytetu Gdańskiego dopuszcza korzystanie z AI do szkicowania, redakcji czy korekty — pod warunkiem jawności i weryfikacji przez autora. Przypomina jednak, że technologia nie naprawi problemów starszych niż ChatGPT. „Skanowanie prac nie wyeliminowało plagiatów. Nierzetelni promotorzy nadal będą przepuszczać nierzetelne prace.”

Nawet gdy uda się udowodnić maszynowe autorstwo, system reaguje opieszale. W polskich czasopismach prawniczych, jak wskazuje profesor, nie zawsze retraktuje się nawet ewidentne plagiaty potwierdzone wyrokami. Na szybką i konsekwentną reakcję wobec treści generowanych przez AI też nie ma co liczyć.

Prawo goni AI, ale uczelnie potrzebują własnych reguł

Na poziomie europejskim kończy się proces uchwalania aktu o AI. To jednak ramy horyzontalne, które nie zastąpią polityk wewnętrznych uczelni: procedur ujawniania użycia narzędzi, zakresów dopuszczalnej pomocy i konsekwencji nadużyć.

Prof. Krawiec postuluje ujednolicenie zasad i zrównanie sankcji za wygenerowanie pracy z karami za plagiat. Ostrzega przed chaosem, gdy każda uczelnia przyjmie inne standardy — uderzy to w równość i zaufanie do dyplomów. Tymczasem „uczłowieczanie” tekstów i rosnąca liczba detektorów sprawiają, że techniczny wyścig zbrojeń nie rozwiąże problemu.

Dług poznawczy: wczorajsza wygoda, jutrzejszy koszt

Badanie zespołu z MIT, przeprowadzone na 54 osobach piszących eseje, dorzuca neurofizjologiczny wątek. Uczestnicy korzystający z AI wykazywali słabszą aktywność mózgu nie tylko podczas generowania tekstu, ale również wtedy, gdy potem musieli pracować samodzielnie. Autorzy nazywają to „długiem poznawczym”.

To eksperyment z ograniczoną próbą i warunkami laboratoryjnymi — nie należy go przeceniać. Wskazuje jednak, że bezmyślne delegowanie myślenia na model może osłabiać kompetencje, które uczelnia powinna rozwijać.

Minimalny pakiet dla uczelni

Co można zrobić od ręki, bez czekania na ustawę? Po pierwsze, wprowadzić obowiązek ujawniania użycia AI w pracach i zleceniach wraz z opisem roli narzędzia i — tam, gdzie to zasadne — załączeniem promptów. Po drugie, projektować zadania trudne do outsourcowania maszynie: analizy źródeł, obrony ustne, iteracyjne konsultacje. Po trzecie, szkolić promotorów i recenzentów w ocenie jakości merytorycznej zamiast fetyszyzować wskaźniki detektorów.

AI potrafi przyspieszyć naukę, ale nie zastąpi rygoru metodologicznego ani odpowiedzialności autora. Bez spójnych standardów i silnej roli promotora będziemy produkować więcej tekstów — i mniej wiedzy.