ChatbotLLMR & D

Themis AI uczy sztuczną inteligencję przyznawać się do niewiedzy, minimalizując ryzyko 'halucynacji’

W miarę jak systemy sztucznej inteligencji stają się coraz bardziej obecne w naszym życiu i podejmują coraz ważniejsze decyzje, rośnie ryzyko związane z tzw. halucynacjami AI. To sytuacje, w których algorytmy generują błędne lub nieprawdziwe informacje, prezentując je jako fakty.

Themis AI, startup wywodzący się z Massachusetts Institute of Technology, podjął się wyzwania zminimalizowania tego ryzyka. Opracowana przez nich platforma Capsa uczy sztuczną inteligencję samokontroli i przyznawania się do niewiedzy. Dzięki temu, systemy AI potrafią odróżnić sytuacje, w których dysponują wystarczającą ilością danych i pewnością, od tych, w których bazują jedynie na domysłach.

Jak to działa?

Capsa integruje się z istniejącymi systemami AI i analizuje sposób, w jaki przetwarzają one informacje. Platforma wykrywa wzorce i sygnały wskazujące na potencjalne problemy, takie jak niekompletne dane, błędy poznawcze lub uprzedzenia (bias). W takich przypadkach, system AI ma możliwość zasygnalizowania swojej niepewności i uniknięcia generowania fałszywych wniosków.

Praktyczne zastosowania

Technologia Themis AI znajduje zastosowanie w różnych branżach. Pomaga firmom telekomunikacyjnym unikać kosztownych błędów w planowaniu sieci, wspiera przedsiębiorstwa naftowe i gazowe w analizie danych sejsmicznych oraz umożliwia tworzenie chatbotów, które nie wymyślają faktów.

Profesor Daniela Rus z MIT, współzałożycielka Themis AI, podkreśla, że celem firmy jest uczynienie sztucznej inteligencji bardziej wiarygodną i odpowiedzialną. „Chcemy, aby systemy AI były świadome swoich ograniczeń i potrafiły przyznać się do niewiedzy” – mówi Rus. „To kluczowe dla budowania zaufania do tej technologii.”

Od badań nad autonomicznymi pojazdami do branży farmaceutycznej

Początki Themis AI sięgają badań nad niezawodną sztuczną inteligencją dla autonomicznych pojazdów, finansowanych przez Toyotę w 2018 roku. Naukowcy opracowali algorytm, który potrafił wykrywać uprzedzenia rasowe i płciowe w systemach rozpoznawania twarzy. Następnie, system ten zaczął korygować te uprzedzenia poprzez rebalansowanie danych treningowych.

W 2021 roku udowodniono, że to podejście może zrewolucjonizować proces odkrywania leków. Systemy AI mogły oceniać potencjalne leki, ale co najważniejsze – sygnalizować, kiedy ich przewidywania opierały się na mocnych dowodach, a kiedy na domysłach lub halucynacjach. Przemysł farmaceutyczny uznał potencjalne oszczędności pieniędzy i czasu, koncentrując się tylko na kandydatach na leki, co do których AI była pewna.

Themis AI to przykład firmy, która dąży do uczynienia sztucznej inteligencji bardziej odpowiedzialną i godną zaufania. Ich technologia może pomóc w uniknięciu błędów i nieporozumień, które mogą wynikać z halucynacji AI. W miarę jak systemy AI stają się coraz bardziej złożone i wszechobecne, takie rozwiązania stają się niezbędne.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *