Iluzja produktywności: dlaczego „tokenmaxxing” nie czyni programistów lepszymi
W świecie zarządzania stary truizm mówi, że otrzymujemy to, co mierzymy. Przez dekady inżynierowie oprogramowania spierali się o miary produktywności, zaczynając od niefortunnej liczby linii kodu. Dziś, w erze asystentów AI, takich jak Claude Code czy Cursor, wskaźnikiem statusu stały się budżety tokenów. Problem w tym, że „tokenmaxxing” – czyli duma z ogromnej ilości przetwarzanych przez AI danych – ma niewiele wspólnego z faktyczną wartością biznesową.
Pułapka akceptacji i cyfrowy odpad
Najnowsze analizy firm zajmujących się monitoringiem pracy programistów, takich jak Waydev czy GitClear, rzucają cień na entuzjazm wokół sztucznej inteligencji. Choć menedżerowie cieszą się ze wskaźników akceptacji kodu (acceptance rates) na poziomie 80-90%, liczby te są głęboko mylące. Alex Circei, dyrektor generalny Waydev, zauważa, że po początkowym zachwycie przychodzi brutalne zderzenie z rzeczywistością: kod generowany przez AI jest poprawiany i przepisywany tak często, że realny wskaźnik jego przydatności spada do zaledwie 10-30%.
Mamy do czynienia z fenomenem zwanym „code churn”. Dane GitClear pokazują, że regularni użytkownicy AI generują blisko dziesięciokrotnie większy chaos w repozytoriach niż ich koledzy pracujący tradycyjnymi metodami. To sygnał, że zamiast rozwiązywać problemy, AI często produkuje rozwiązanie tylko tymczasowe, które wkrótce wymaga kosztownego serwisowania.
Przerost formy nad treścią
Z raportów rynkowych wyłania się obraz niepokojącej dysproporcji. Inżynierowie dysponujący największymi budżetami na tokeny faktycznie generują najwięcej zapytań o wdrożenie zmian (pull requests), ale ta produktywność nie skaluje się liniowo. Firma Jellyfish wskazuje wprost: dwukrotny wzrost przepustowości odbywa się kosztem dziesięciokrotnie wyższych wydatków na infrastrukturę AI. Narzędzia te pompują wolumen, ale niekoniecznie jakość.
Szczególnie widoczne jest to w przypadku mniej doświadczonych programistów. Juniorzy chętniej bezkrytycznie przyjmują sugestie AI, co w krótkim terminie wygląda na szybki postęp, ale w dłuższej perspektywie generuje gigantyczny dług techniczny. Seniorzy, choć bardziej sceptyczni, również wpadają w pułapkę nadmiaru kodu, który ktoś – zazwyczaj człowiek – musi później drobiazgowo zweryfikować.
Nowa ranga analityki
Skoro tradycyjne metryki zawodzą, rynek zaczyna szukać nowych metod oceny zwrotu z inwestycji w AI. Przejęcie startupu DX przez Atlassian za miliard dolarów to jasny sygnał: giganci technologiczni desperacko potrzebują narzędzi, które odróżnią realny postęp od szumu generowanego przez algorytmy. Analityka nowej generacji nie skupia się już na tym, ile kodu powstało, ale jak długo ten kod „przeżył” w systemie bez konieczności poprawki.
Pomimo tych trudności, branża nie planuje odwrotu. Jak podkreśla Alex Circei, nie jest to przejściowa moda, lecz trwała zmiana paradygmatu, do której firmy muszą się zaadaptować. Wyzwaniem na nadchodzące lata nie będzie już to, jak wygenerować więcej kodu za pomocą AI, ale jak robić to w sposób, który nie utopi zespołów programistycznych w morzu niskiej jakości, wtórnego kodu.
