ChatGPT zmusiło twórcę Soundslice do stworzenia nowej funkcji
Adrian Holovaty, znany także jako współtwórca popularnego frameworku Django, odkrył intrygujące zjawisko związane ze swoją platformą do nauki muzyki Soundslice. Przez tygodnie do systemu Soundslice, a konkretnie do funkcji skanera nut, trafiały nieoczekiwane dane – zrzuty ekranu sesji z ChatGPT. Początkowo zagadkowe, stało się jasne, że ChatGPT, w swojej gorliwości, „halucynował”, zachwalając możliwości Soundslice, które w rzeczywistości nie istniały.
Soundslice to innowacyjna platforma, która wyróżnia się synchronizacją odtwarzacza wideo z notacją muzyczną, umożliwiając użytkownikom interaktywną naukę. Kluczową funkcjonalnością jest skaner nut, który za pomocą AI przetwarza zdjęcia ręcznie zapisanych nut na interaktywne arkusze. To właśnie w logach błędów tego skanera Holovaty zauważył, że zamiast zeskanowanych nut, pojawiają się obrazy przedstawiające ASCII tabulaturę – tekstowy system zapisu nutowego dla gitary, wykorzystujący podstawowe znaki klawiaturowe. Okazało się, że ChatGPT, w odpowiedzi na zapytania użytkowników o konwersję ASCII tabulatury na słyszalną muzykę, sugerował przesłanie zrzutu ekranu sesji do Soundslice, obiecując, że platforma przetworzy to na dźwięk. Problem w tym, że Soundslice takiej możliwości nie oferowało.
Holovaty szybko zorientował się w skali problemu. Choć zrzuty ekranu nie generowały znaczących kosztów dla firmy, uderzały w jej reputację. Nowi użytkownicy, zachęceni fałszywymi obietnicami AI, zakładali konta z błędnymi oczekiwaniami, co prowadziło do frustracji i rozczarowania. Założyciel Soundslice stanął przed wyborem: albo umieścić ostrzeżenia na całej stronie o tym, że platforma nie potrafi przekształcać sesji ChatGPT w muzykę, albo… zaimplementować tę funkcję.
Mimo początkowych wątpliwości i poczucia, że sytuacja jest absurdalna – czy firma powinna rozwijać funkcje w odpowiedzi na dezinformację AI? – Holovaty podjął decyzję o zbudowaniu nowej funkcjonalności. W dyskusji z TechCrunch przyznał, że choć czuje się „zmuszony” do tej decyzji, cieszy się, że to narzędzie będzie pomocne dla użytkowników. Cała sytuacja rodzi fundamentalne pytanie o odpowiedzialność i wpływ dużych modeli językowych na rynek i strategię rozwoju produktów.
Przypadek Soundslice staje się prawdopodobnie pierwszym udokumentowanym przykładem, w którym halucynacje sztucznej inteligencji bezpośrednio wymusiły na firmie rozwój nowej funkcji. Holovaty zauważył, że społeczność programistów na Hacker News szybko podjęła ten temat, porównując sztuczną inteligencję do nadgorliwego handlowca, który obiecuje klientom złote góry, zmuszając później deweloperów do realizacji tych obietnic. Holovaty, jak sam przyznał, uważa to porównanie za zabawne i trafne.
Historia Soundslice to nie tylko anegdota o kaprysach AI, ale także ważne studium przypadku wpływu, jaki modele językowe mogą mieć na trajektorię rozwoju produktów technologicznych. Zmusza do refleksji nad tym, kto ponosi odpowiedzialność za generowane przez AI fałszywe informacje i jakie strategie powinny przyjmować firmy, aby radzić sobie z nieprzewidzianymi konsekwencjami powszechnego użycia narzędzi opartych na sztucznej inteligencji.
