Sztuczna inteligencja na kampusach: studenci kontra profesorowie, czyli nowe starcie w edukacji
Implementacja sztucznej inteligencji w środowisku akademickim zaczyna generować nową falę kontrowersji, a epicentrum tego cyfrowego starcia przesunęło się z sal wykładowych do gabinetów profesorów. Kiedy jeszcze niedawno niepokój dotyczył wykorzystywania AI przez studentów w pracach zaliczeniowych, obecnie to właśnie studenci coraz częściej sygnalizują swoje obawy związane z poleganiem przez wykładowców na narzędziach AI w procesach dydaktycznych.
Jak donoszą media, w tym 'Fortune’, stosowanie AI do takich czynności jak przygotowywanie zajęć czy, co budzi największe emocje, ocenianie prac studenckich, stało się „wszechobecne”. Na forach internetowych, takich jak popularny Rate My Professors, pojawiają się liczne skargi dotyczące nadmiernego polegania kadry akademickiej na algorytmach. Studenci argumentują, że takie praktyki umniejszają wartość ich wykształcenia, zwłaszcza w kontekście wysokich opłat za naukę i oczekiwań, że ich wiedza będzie pochodzić od ludzkich ekspertów.
Wartość wykształcenia a algorytmy
Kwestia kosztów edukacji w USA jest tu istotnym tłem. Roczne czesne za studia na czteroletnich uczelniach publicznych to średnio 17 709 dolarów, a dla studentów spoza stanu może wzrosnąć nawet do 28 445 dolarów. W tym kontekście studenci czują się uprawnieni do rzetelnego, ludzkiego nauczania i oceniania. Pojawiają się głosy, że niesprawiedliwe jest karanie studentów za korzystanie z AI, podczas gdy wykładowcy pozostają bezkarni. Przykładem jest studentka z Northeastern University, która złożyła oficjalną skargę i zażądała zwrotu czesnego, gdy odkryła, że jej profesor potajemnie używał narzędzi AI do generowania notatek.
Badania przeprowadzone przez Higher Education Policy Institute w Wielkiej Brytanii wskazują, że niemal wszyscy studenci – już 92% w 2025 roku, w porównaniu do 66% w 2024 – w pewnym stopniu korzystają z AI do wspomagania się przy zadaniach. Ten fakt, zdaniem niektórych profesorów, jest kluczowy w uzasadnieniu ich własnego użycia AI. Rob Anthony z Hult International Business School zauważa, że nikt nie lubi oceniać, a jest to zadanie czasochłonne i niedoceniane. Frustracja ta, w połączeniu z luźnym nadzorem instytucjonalnym nad procesem oceniania, skłania wykładowców do poszukiwania szybszych metod przetwarzania ocen.
Brak transparentności jako główny problem
Anthony przyznaje, że początkowo, gdy studenci masowo zaczęli używać AI do pisania prac, reakcja wykładowców była często na zasadzie: „Jeśli oni używają tego do pisania, ja nie będę marnować czasu na czytanie”. Poskutetkowało to sytuacją, którą określa jako „boty rozmawiające z botami”. To właśnie to zjawisko, w połączeniu z brakiem transparentności, staje się zarzewiem konfliktu.
Klucz do rozwiązania problemu leży w otwartości. Ron Martinez, były wykładowca UC Berkeley, a obecnie profesor nadzwyczajny anglistyki na Federalnym Uniwersytecie Paraná (UFPR), jest otwarty wobec swoich studentów, wyjaśniając, jak, kiedy i dlaczego korzysta z technologii. Sugeruje, że otwarta komunikacja na temat użycia AI – na przykład w celu usprawnienia oceniania lub tworzenia bardziej sprawiedliwych ocen – może przynieść korzyści obu stronom. Jednym z przykładów jest wykorzystanie dużych modeli językowych jako „podwójnego recenzenta” w procesie oceniania, co pozwala na weryfikację własnych decyzji.
Co więcej, wiele uczelni, które początkowo wprowadziły zakazy i restrykcje, teraz zachęca studentów do używania AI, choć w „odpowiedni sposób”. Granice tego „odpowiedniego sposobu” wciąż bywają jednak niejasne. Asystent dydaktyczny, który oceniał zajęcia wprowadzające, zauważył, że „około 20 do 30% studentów w jawny sposób używało AI do pisania prac”. Zamiast karać bezpośrednio za użycie AI, obniżał oceny za brak dowodów lub źródeł, co wskazuje na ewolucję podejścia do akceptowalnych praktyk.
W obliczu tych zmian niektórzy profesorowie, jak Anthony, zaczynają dostrzegać w powszechnym stosowaniu AI pozytywne aspekty. Od początkowego odczucia, że „całe te zajęcia były stratą czasu”, ewoluował w przekonaniu, że bilans jest korzystny: AI „bardziej pomaga, niż szkodzi”. To może świadczyć o nadchodzącej, bardziej symbiotycznej relacji między człowiekiem a sztuczną inteligencją w przyszłości edukacji wyższej.
