Sam Altman o „wyboistej” premierze GPT-5: obietnice poprawek i powrotu GPT-4o
Premiera kolejnej iteracji modelu językowego OpenAI, GPT-5, nie przebiegła tak gładko, jak mogłaby sobie życzyć firma. Sesja AMA (Ask Me Anything) z Samem Altmanem, CEO OpenAI, oraz kluczowymi członkami zespołu GPT-5 na Reddicie, obfitowała w pytania dotyczące funkcjonalności nowego modelu, krytykę jego „modyfikacji” oraz, co ciekawe, w gorące prośby o przywrócenie poprzedniego GPT-4o dla subskrybentów wersji Plus.
Jedną z kluczowych nowości, na którą postawił OpenAI w GPT-5, jest router działający w czasie rzeczywistym. Jego zadaniem jest dynamiczne decydowanie, który model zostanie użyty do danego zapytania – czy będzie to szybka odpowiedź, czy też dłuższe „zastanowienie się” nad tematem. Ten mechanizm, teoretycznie mający optymalizować działanie, okazał się piętą achillesową podczas premiery.
Liczni użytkownicy AMA zgodnie narzekali, że GPT-5 działa dla nich gorzej niż jego poprzednik, GPT-4o. Altman przyznał, że powodem, dla którego GPT-5 mógł wydawać się „głupszy”, były problemy z uruchomieniem wspomnianego routera. „GPT-5 będzie wydawał się mądrzejszy, począwszy od dziś. Wczoraj mieliśmy awarię, a autoswitcher był wyłączony przez część dnia, w rezultacie GPT-5 wydawał się znacznie głupszy” – wyjaśnił Altman. Dodał również, że trwają prace nad optymalizacją mechanizmów decyzyjnych, co ma zapewnić trafniejsze dopasowanie modelu do zapytania. Obiecał również większą przejrzystość w kwestii tego, który model faktycznie udziela odpowiedzi na daną prośbę.
Presja społeczności Reddita była na tyle silna, że Altman obiecał rozważyć umożliwienie użytkownikom wersji Plus dalszego korzystania z GPT-4o. „Badamy możliwość zezwolenia użytkownikom Plus na dalsze korzystanie z 4o. Staramy się zebrać więcej danych na temat kompromisów” – napisał. To istotna deklaracja, biorąc pod uwagę, jak często firmy technologiczne ignorują podobne apele. Dodatkowo, w ramach rekompensaty i ułatwienia adaptacji do nowego modelu, Altman zapowiedział podwojenie limitów zapytań dla subskrybentów Plus po zakończeniu wdrażania GPT-5.
Nie można pominąć również kwestii „przestępstwa na wykresie”, które błyskawicznie stało się obiektem kpin. Chodzi o groteskowo niedokładny wykres zaprezentowany podczas premiery, który przedstawiał niższy wynik benchmarku z nieproporcjonalnie wysokim słupkiem. Choć Altman unikał bezpośrednich odpowiedzi na ten temat podczas AMA, wcześniej na platformie X (dawniej Twitter) nazwał to „wielką graficzną wpadką”. Mimo że poprawne wykresy pojawiły się w oficjalnym wpisie na blogu, reputacyjne szkody już powstały, a internet zalała fala żartów o wykorzystywaniu GPT do tworzenia firmowych prezentacji.
Wpadkę tę podkreślił także Simon Willison, recenzent GPT-5, który miał wczesny dostęp do modelu i, choć generalnie pozytywnie oceniał jego działanie, to akurat transformację danych w tabelę uznał za „dobry przykład porażki GPT-5”. Altman zakończył sesję AMA obietnicą: „Będziemy nadal pracować nad stabilizacją i będziemy słuchać opinii”. Czas pokaże, czy te obietnice zostaną spełnione, a burzliwa premiera okaże się jedynie chwilowym potknięciem na drodze do ewolucji modeli językowych.
