Programowanie

Pułapka drogi na skróty. Anthropic ostrzega: AI upośledza naukę programowania

Fasadowa produktywność i luka w wiedzy

W środowisku technologicznym panuje powszechne przekonanie, że generatywna sztuczna inteligencja to katalizator wydajności. Badacze z Anthropic postanowili sprawdzić to założenie w kontekście zdobywania nowych umiejętności. Wyniki eksperymentu, w którym wzięło udział 52 programistów, są niepokojące: grupa korzystająca z modelu GPT-4o osiągnęła wyniki w testach wiedzy o 17 proc. gorsze niż grupa kontrolna, która miała do dyspozycji jedynie tradycyjną dokumentację i wyszukiwarkę. Co więcej, asysta AI wcale nie przełożyła się na szybsze rozwiązanie zadań.

Główny problem leży w tzw. delegowaniu zadań. Deweloperzy, którzy bezmyślnie kopiowali wygenerowany kod, nie byli w stanie zrozumieć mechaniki biblioteki Trio, na której opierało się badanie. Uczestnicy ci osiągali najsłabsze wyniki w testach, oscylujące wokół 39 proc. Zjawisko to sugeruje, że współczesne narzędzia AI mogą tworzyć iluzję kompetencji – kod działa, zadanie zostało „odczarowane”, ale w głowie programisty nie zostaje żaden trwały ślad poznawczy.

Klucz do sukcesu: pytaj „dlaczego”, a nie „jak”

Analiza nagrań ekranu pozwoliła wyodrębnić sześć wzorców interakcji z botem. Okazało się, że kluczem do zachowania sprawności intelektualnej jest utrzymanie wysiłku poznawczego. Osoby, które prosiły AI o wyjaśnienie koncepcji lub zadawały pytania uzupełniające po wygenerowaniu fragmentu kodu, uzyskiwały wyniki na poziomie 65-86 proc. – zbliżone do osób uczących się tradycyjnie.

Największa różnica między grupami ujawniła się podczas debugowania. Programiści bez AI popełniali więcej błędów na etapie pisania, co zmuszało ich do głębokiej analizy logów i struktury biblioteki. To „bolesne utknięcie” w problemie, choć frustrujące, okazało się niezbędnym elementem procesu budowania kompetencji. Osoby z asystentem AI, omijając te trudności, traciły szansę na zrozumienie mechanizmów runtime i specyfiki błędów, co w przyszłości może uczynić z nich programistów niezdolnych do pracy przy krytycznych systemach bez zewnętrznego wsparcia.

Ryzykowny kierunek automatyzacji

Badacze Anthropic przestrzegają przed ślepym wdrażaniem AI w workflow juniorów. Jeśli programiści przestaną kształtować umiejętność krytycznego przeglądu kodu (code review) na etapie nauki, ich zdolność do wyłapywania błędów w systemach bezpieczeństwa drastycznie spadnie. Istnieje realne ryzyko atrofii umiejętności analitycznych w imię szybkości, która – jak pokazuje to badanie – przy nowych zadaniach bywa złudna. Czas zaoszczędzony na pisaniu kodu często marnowany jest na dopracowywanie promptów i próby zmuszenia modelu do poprawnego działania.

Fakt, że Anthropic – firma zarabiająca na sprzedaży modeli takich jak Claude – publikuje badanie uderzające w narrację o bezwarunkowej użyteczności AI, jest wart odnotowania. To sygnał dla branży: AI w programowaniu to potężne narzędzie, ale tylko w rękach tych, którzy nie boją się zapytać „dlaczego to właściwie działa”. Bez tego krytycznego ogniwa, nowa generacja deweloperów ryzykuje stanie się jedynie operatorami narzędzi, których działania nie potrafią w pełni zweryfikować.