Mit myślącej maszyny: Dlaczego AI wcale nie wie, co robi
Pułapka mentalnych czasowników
AI nie myśli, nie czuje i nie rozumie. To brutalna rzeczywistość statystyki ukrytej pod warstwą błyszczącego interfejsu, o której coraz częściej zapominamy w codziennym dyskursie. Kiedy mówimy, że ChatGPT „wie” albo algorytm „chce”, nie tylko stosujemy skrót myślowy – ryzykujemy zamazanie granicy między ludzką świadomością a matematyczną predykcją.
Jo Mackiewicz, profesor z Iowa State University, stawia sprawę jasno: używanie czasowników opisujących stany umysłowe w odniesieniu do maszyn to prosta droga do budowania nierealistycznych oczekiwań względem ich niezawodności.
Dziennikarska powściągliwość
Naukowcy przeanalizowali gigantyczny zbiór danych News on the Web (NOW), obejmujący 20 miliardów słów z serwisów informacyjnych. Wynik? Branża medialna trzyma fason lepiej, niż sądziliśmy.
- Pojęcie „needs” (potrzebuje) pojawiało się przy AI najczęściej (661 razy).
- Słowo „knows” (wie) w kontekście ChatGPT wystąpiło zaledwie 32 razy.
- Standardy redakcyjne, takie jak wytyczne Associated Press, skutecznie blokują przypisywanie maszynom ludzkich cech.
To rzadki przypadek, gdzie profesjonalny sceptycyzm wygrywa z pokusą klikalnych, sensacyjnych nagłówków o „rodzącej się świadomości” krzemowych układów.
Spektrum antropomorfizacji
Fraza „AI potrzebuje danych” nie jest jeszcze groźna – to techniczny wymóg, tak jak stwierdzenie, że samochód potrzebuje paliwa. Problem zaczyna się przy sformułowaniach typu „AI musi zrozumieć kontekst etyczny”. Tu wchodzimy na grząski grunt metaforycznej inteligencji, która sugeruje posiadanie moralnego kompasu tam, gdzie są tylko wagi probabilistyczne.
Antropomorfizacja to spektrum, a nie stan zerojedynkowy.
Badacze zauważyli, że używanie strony biernej („AI musi zostać przeszkolone”) jest kluczowe dla zachowania prawdy o technologii. Przesuwa ono odpowiedzialność tam, gdzie jej miejsce: na deweloperów, inżynierów i korporacje decydujące o kształcie modelu.
Dlaczego precyzja słowa ma znaczenie?
Jeśli uwierzymy, że maszyna ma intencje, przestaniemy patrzeć na ręce ludziom, którzy ją zaprogramowali. Rozmycie podmiotowości to najkrótsza droga do ucieczki od etycznej odpowiedzialności za błędy algorytmów. Język kształtuje percepcję, a w przypadku sztucznej inteligencji, nadmiar humanizacji jest po prostu technologicznym kłamstwem.
Dla branży tech to lekcja pokory: musimy przestać mówić o „mózgach” w chmurze, zanim użytkownicy faktycznie zaczną im ufać bezkrytycznie.
