SpołeczeństwoWiedza

Sztuczna inteligencja: kalkulator słów, który oszukuje naszą intuicję

Od 'czarnej skrzynki’ po 'autouzupełnianie na sterydach’ – próby wyjaśnienia, czym jest generatywna sztuczna inteligencja i jak działa, zaowocowały wieloma metaforami. Celem jest uczynienie tej złożonej technologii bardziej zrozumiałą poprzez odniesienie jej do codziennych doświadczeń, nawet jeśli porównania te są często uproszczone lub wręcz mylące.

Jedną z coraz bardziej popularnych analogii jest opisywanie generatywnej AI jako 'kalkulatora słów’. Spopularyzowane między innymi przez Sama Altmana, dyrektora generalnego OpenAI, porównanie to sugeruje, że podobnie jak kalkulatory, których używaliśmy do liczenia w szkole, narzędzia generatywnej AI mają za zadanie przetwarzać ogromne ilości danych językowych.

Ta analogia spotkała się ze słuszną krytyką, ponieważ może przesłaniać problematyczne aspekty AI. Kalkulatory nie mają wbudowanych uprzedzeń, nie popełniają błędów i nie stwarzają dylematów etycznych. Jednak odrzucanie tego porównania w całości również jest ryzykowne, ponieważ u podstaw generatywnej AI leży właśnie kalkulacja słów. Istotna jest sama praktyka kalkulowania, która w narzędziach AI ma naśladować sposób, w jaki ludzie posługują się językiem.

Większość użytkowników języka nie zdaje sobie sprawy, w jakim stopniu ich interakcje są wynikiem obliczeń statystycznych. Pomyśl o dyskomforcie, gdy słyszysz kogoś, kto mówi 'pieprz i sól’ zamiast 'sól i pieprz’. Zasady, które regulują sposób, w jaki wybieramy i porządkujemy słowa, wynikają z częstotliwości naszych interakcji społecznych. Im częściej słyszysz coś powiedziane w określony sposób, tym mniej naturalnie zabrzmi jakakolwiek alternatywa.

W lingwistyce takie sekwencje nazywane są kolokacjami. To tylko jedno z wielu zjawisk, które pokazują, jak ludzie obliczają wzorce słowne na podstawie tego, czy 'brzmią dobrze’ – czy wydają się odpowiednie, naturalne i ludzkie. Jednym z głównych osiągnięć dużych modeli językowych (LLM) jest to, że udało im się sformalizować ten czynnik 'brzmi dobrze’ w sposób, który skutecznie oszukuje ludzką intuicję. W rzeczywistości, są to jedne z najpotężniejszych systemów kolokacyjnych na świecie.

Obliczając zależności statystyczne między tokenami (słowami, symbolami lub kropkami koloru) w abstrakcyjnej przestrzeni, która odwzorowuje ich znaczenia i relacje, AI generuje sekwencje, które nie tylko przechodzą test Turinga, ale, co bardziej niepokojące, mogą sprawić, że użytkownicy się w nich zakochują.

Istotnym czynnikiem umożliwiającym ten rozwój są lingwistyczne korzenie generatywnej AI. Narzędzia te są produktem zarówno informatyki, jak i różnych gałęzi lingwistyki. Protoplastami współczesnych LLM, takich jak GPT-5 i Gemini, są narzędzia do tłumaczenia maszynowego z czasów zimnej wojny, które miały tłumaczyć rosyjski na angielski. Wraz z rozwojem lingwistyki, celem takich maszyn stało się dekodowanie zasad przetwarzania języka naturalnego.

Proces rozwoju LLM przebiegał etapami, od prób mechanizacji 'zasad’ języków (takich jak gramatyka), przez podejścia statystyczne, które mierzyły częstotliwość sekwencji słów na podstawie ograniczonych zbiorów danych, aż po obecne modele, które wykorzystują sieci neuronowe do generowania płynnego języka. Jednak podstawowa praktyka obliczania prawdopodobieństw pozostała niezmieniona. Chociaż skala i forma uległy ogromnym zmianom, współczesne narzędzia AI nadal są statystycznymi systemami rozpoznawania wzorców.

Zostały one zaprojektowane do obliczania, w jaki sposób posługujemy się językiem w odniesieniu do zjawisk takich jak wiedza, zachowanie lub emocje, bez bezpośredniego dostępu do żadnego z nich. Jeśli poprosisz chatbota takiego jak ChatGPT o 'ujawnienie’ tego faktu, chętnie to zrobi. Dlaczego więc nie zdajemy sobie z tego sprawy?

Jednym z głównych powodów jest sposób, w jaki firmy opisują i nazywają praktyki narzędzi generatywnej AI. Zamiast 'obliczać’, narzędzia te 'myślą’, 'rozumują’, 'wyszukują’, a nawet 'marzą’. Sugeruje się, że rozwiązując równanie dotyczące sposobu, w jaki ludzie używają wzorców językowych, AI zyskała dostęp do wartości, które przekazujemy za pomocą języka. Ale przynajmniej na razie tak się nie stało. Może obliczyć, że 'ja’ i 'ty’ najprawdopodobniej połączy się z 'kocham’, ale nie jest ani 'ja’ (nie jest osobą), ani nie rozumie 'miłości’, ani tym bardziej ciebie – użytkownika piszącego podpowiedzi. Generatywna AI zawsze tylko kalkuluje. I nie powinniśmy mylić jej z czymś więcej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *