Halucynacje na zakupach: Dlaczego nie warto ufać rekomendacjom produktowym ChatGPT
W sektorze technologicznym obietnica jest prosta: sztuczna inteligencja ma zaoszczędzić nasz czas, syntetyzując ogromne zasoby internetu w konkretne, trafne odpowiedzi. OpenAI niedawno zaktualizowało funkcje zakupowe swojego bota, sugerując, że tradycyjne zestawienia typu „best of” to przeżytek, zmuszający użytkowników do skakania między kartami przeglądarki. Jednak testy przeprowadzone na bazie eksperckich poradników WIRED ujawniają niebezpieczną lukę między marketingowymi deklaracjami a faktyczną użytecznością narzędzia.
Mechanizm podmiany: Gdy AI wie „lepiej”
Największym problemem nie jest brak dostępu do danych, lecz sposób, w jaki ChatGPT nimi zarządza. Model potrafi prawidłowo zidentyfikować źródło, podlinkować odpowiedni poradnik, a następnie… całkowicie zignorować zawarte w nim fakty. W testach dotyczących telewizorów bot jako najlepszy model wskazał urządzenie LG QNED Evo, którego w ogóle nie było w zestawieniu redakcji. Zapytany o powód tej dezinformacji, chatbot przyznał z rozbrajającą szczerością, że zastąpił konkretny wybór ekspertów opcją „bardziej generyczną”.
To zjawisko to coś więcej niż zwykły błąd techniczny. To programowa nadinterpretacja, która uderza w fundamenty profesjonalnych testów sprzętu. Kiedy dziennikarz spędza dziesiątki godzin na kalibracji ekranów czy sprawdzaniu dynamiki dźwięku, a algorytm podmienia wynik jego pracy na podstawie statystycznego prawdopodobieństwa, tracą na tym wszyscy – od autora, przez wydawcę, aż po zdezorientowanego konsumenta.
Fantomowe rekomendacje i sprzęt, który nie istnieje
ChatGPT wykazuje również tendencję do „wybiegania przed szereg”. W kategorii słuchawek bezprzewodowych bot wskazał Apple AirPods Max 2 jako wybór redakcji, mimo że urządzenie w momencie generowania odpowiedzi nie zostało jeszcze przez zespół przetestowane. System pomylił newsy o premierze produktu z gotową recenzją, co w świecie technologii jest błędem kardynalnym. Podobne anomalie dotyczyły laptopów, gdzie bot uparcie lansował starsze modele MacBooków jako te najnowsze, ignorując aktualne rankingi widoczne na stronie, którą sam cytował.
Ryan Waniata, ekspert od sprzętu audio, zauważa trafnie, że halucynacje AI czynią pracę dziennikarza jeszcze trudniejszą. Nie dość, że praca recenzentów jest bezprawnie zawłaszczana przez modele LLM, to na dodatek jest ona błędnie interpretowana lub przypisywana produktom, których redakcja nigdy by nie poleciła.
Ekonomiczne i merytoryczne zagrożenie
Problem ma również wymiar finansowy. Model biznesowy wielu redakcji opiera się na linkach afiliacyjnych, które finansują rygorystyczne testy. ChatGPT nie tylko odciąga ruch od stron źródłowych, ale także nie przenosi linków, które pozwalają mediom zarabiać. Jeśli użytkownik kupi produkt zasugerowany błędnie przez AI, wierząc, że poleca go zaufana redakcja, dochodzi do podwójnej szkody: czytelnik zostaje z gorszym sprzętem, a wydawca traci środki na dalszą działalność.
Mimo partnerstw biznesowych między gigantami takimi jak Condé Nast a OpenAI, technologia wciąż zdaje się ignorować wartość ludzkiej pracy i rzetelności. Wniosek dla konsumentów pozostaje niezmienny: jeśli szukasz sprzętu, za który zamierzasz zapłacić ciężko zarobione pieniądze, omijaj skróty oferowane przez chatboty. Bezpośrednia wizyta u źródła, choć wymaga więcej niż jednego kliknięcia, pozostaje jedyną gwarancją otrzymania prawdziwej, przetestowanej informacji.
