AI w obliczu niepewności: jak nowe ramy decyzyjne zmieniają przyszłość sztucznej inteligencji
Zdolność do podejmowania trafnych decyzji w obliczu niekompletnych informacji to domena od wieków zarezerwowana dla ludzkiej inteligencji. Wraz z postępem sztucznej inteligencji, to wyzwanie staje się coraz bardziej palące. Jak maszyny mogą ważyć sprzeczne wartości, gdy wyniki są niepewne? Co stanowi rozsądny wybór, gdy idealne informacje są niedostępne? Te pytania, niegdyś domeną filozofii, dziś są w centrum uwagi, gdy delegujemy coraz bardziej złożone sprawy w ręce AI.
Przełomowe podejście do niepewności
Willie Neiswanger, asystent profesora informatyki na USC Viterbi School of Engineering oraz USC School of Advanced Computing, wraz ze studentami, opracował nowatorskie ramy dla dużych modeli językowych (LLM). Ich praca, łącząca zasady klasycznej teorii decyzji i teorii użyteczności, ma znacząco poprawić zdolność AI do radzenia sobie z niepewnością.
Badania Neiswangera zostały zaprezentowane na Międzynarodowej Konferencji Uczenia Reprezentacji w 2025 roku i opisane na serwerze preprintowym arXiv. W rozmowie z USC News, Neiswanger przedstawił swoje spojrzenie na różnice między inteligencją ludzką a maszynową oraz wyjaśnił, dlaczego obecne modele AI mają trudności z niepewnością.
Ludzka vs. maszynowa inteligencja: gdzie leży przewaga?
Neiswanger zauważa, że obecnie inteligencja ludzka posiada szereg przewag nad maszynową, lecz również maszyny dysponują unikalnymi mocnymi stronami. Duże modele językowe, trenowane na ogromnych zbiorach danych tekstowych, potrafią błyskawicznie przetwarzać i syntetyzować ogromne ilości informacji, a także generować scenariusze symulujące wiele możliwych przyszłości lub prognozować szeroki zakres wyników. Celem pracy Neiswangera jest wykorzystanie tych mocnych stron LLM, jednocześnie równoważąc je z intuicją i osądem człowieka.
Dlaczego obecne LLM zawodzą w obliczu niepewności?
Niepewność to fundamentalne wyzwanie w podejmowaniu realistycznych decyzji. Obecne systemy AI mają trudności z właściwym równoważeniem niepewności z dowodami i procesem prognozowania opartym na prawdopodobieństwie różnych wyników, jak również z preferencjami użytkowników w obliczu nieznanych zmiennych. W przeciwieństwie do ludzkich ekspertów, którzy potrafią wyrazić stopień pewności i przyznać się do ograniczeń swojej wiedzy, LLM zazwyczaj generują odpowiedzi z pozorną pewnością, niezależnie od tego, czy opierają się na ugruntowanych wzorcach, czy też dokonują niepewnych przewidywań wykraczających poza dostępne dane. To kluczowa kwestia, która podważa zaufanie do ich autonomicznych decyzji.
Kwatyfikacja niepewności: sedno problemu
Badania Neiswangera koncentrują się na rozwijaniu metod uczenia maszynowego do podejmowania decyzji w warunkach niepewności, ze szczególnym naciskiem na sekwencyjne podejmowanie decyzji – czyli sytuacje, w których seria wyborów wpływa na przyszłe opcje – w środowiskach, gdzie dane są drogie w pozyskaniu.
Obejmuje to zastosowania takie jak optymalizacja „czarnej skrzynki” (znajdowanie najlepszego rozwiązania, gdy nie widać, jak system działa wewnętrznie), projektowanie eksperymentów (planowanie badań w celu uzyskania najbardziej użytecznych informacji) oraz zadania decyzyjne w nauce i inżynierii, na przykład odkrywanie materiałów czy leków, oraz optymalizacja systemów komputerowych. Neiswanger jest również żywo zainteresowany tym, jak masowe modele bazowe, w tym duże modele językowe, mogą zarówno wzmacniać, jak i czerpać korzyści z tych ram decyzyjnych.
Kluczowym elementem opracowanego podejścia jest poprawa zdolności maszyn do kwantyfikacji niepewności, czyli nauczenie ich, jak mierzyć i wyrażać swój poziom pewności co do różnych przewidywań. Zaczęto od identyfikacji kluczowych zmiennych niepewnych istotnych dla podejmowania decyzji. Następnie modele językowe przypisywały językowe oceny prawdopodobieństwa różnym możliwościom (np. plonom, cenom akcji, terminom niepewnych wydarzeń, prognozowanej objętości dostaw), bazując na raportach, danych historycznych i informacjach kontekstowych. Te oceny były następnie konwertowane na prawdopodobieństwa numeryczne. Takie podejście pozwala nie tylko na podejmowanie decyzji w warunkach niekompletnych informacji, ale także na wywieranie przewidywań z mierzalnymi poziomami pewności, które można zweryfikować.
Praktyczne zastosowania i przyszłe kierunki
Natychmiastowe zastosowania nowej metodologii są szerokie. W kontekście biznesowym może ona poprawić planowanie strategiczne, dostarczając bardziej realistycznych ocen niepewności rynkowych i dynamiki konkurencyjnej. W środowisku medycznym może wspomagać diagnostykę i planowanie leczenia, pomagając lekarzom uwzględnić niepewność objawów i wyników badań. W podejmowaniu decyzji osobistych system może pomóc użytkownikom uzyskać bardziej świadome i trafne porady od modeli językowych w codziennych wyborach.
Szczególnie cenna jest zdolność systemu do uwzględniania ludzkich preferencji. Pozwalając komputerom znaleźć matematycznie „najlepsze” rozwiązanie, można było pominąć ważne ludzkie wartości lub ograniczenia. Przez jawne modelowanie preferencji interesariuszy i włączanie ich do matematycznych ocen wartości różnych wyników dla ludzi, ramy te generują rekomendacje, które są nie tylko technicznie optymalne, ale także praktycznie akceptowalne dla osób, które je wdrażają.
Dalsze badania Neiswangera skupiają się na rozszerzeniu zastosowania tego frameworku na szerszy zakres rzeczywistych zadań decyzyjnych, w tym w badaniach operacyjnych (wykorzystywanie metod matematycznych do rozwiązywania złożonych problemów biznesowych), logistyce i opiece zdrowotnej. Kluczowym kierunkiem jest również poprawa audytowalności dla człowieka, poprzez rozwój interfejsów, które zapewnią użytkownikom lepszy wgląd w to, dlaczego LLM podejmowane są konkretne decyzje i dlaczego są one optymalne. To krok w kierunku zwiększenia zaufania i transparentności w relacjach człowiek-AI.
