Sztuczna inteligencja uczy się przestrzegać norm dzięki połączeniu logiki i uczenia maszynowego
Sztuczna inteligencja staje się coraz bardziej wszechstronna, znajdując zastosowanie w planowaniu tras, tłumaczeniu tekstów i wielu innych dziedzinach. Jednakże, aby AI mogła w pełni funkcjonować w społeczeństwie, musi nie tylko dostarczać użyteczne wyniki, ale także przestrzegać norm prawnych, etycznych i społecznych. Pojawia się zatem pytanie: jak nauczyć maszynę tych norm?
Na Uniwersytecie Technicznym w Wiedniu (TU Wien) opracowano nowe podejście, które łączy uczenie maszynowe z logiką, aby umożliwić autonomicznym agentom przestrzeganie predefiniowanych norm. Co więcej, system pozwala na ustalenie hierarchii tych norm, określając, które z nich są ważniejsze od innych. Praca ta została wyróżniona nagrodą Distinguished Paper Award na konferencji IJCAI 2025 w Montrealu.
Tradycyjne metody uczenia AI często przypominają tresurę zwierząt: nagroda za poprawne wykonanie zadania, kara za błąd. AI eksperymentuje z różnymi zachowaniami i, metodą prób i błędów, uczy się, jak maksymalizować swoje nagrody. Ta metoda, zwana uczeniem ze wzmocnieniem, odgrywa kluczową rolę w badaniach nad AI.
Prof. Agata Ciabattoni z Instytutu Logiki i Obliczeń TU Wien wyjaśnia: „Można próbować uczyć AI określonych zasad, nagradzając agenta za przestrzeganie norm. Ta technika dobrze sprawdza się w przypadku ograniczeń bezpieczeństwa. Ale nie działałaby na przykład z normami warunkowymi (’zrób A pod warunkiem B’). Jeśli agent znajdzie sposób na zdobycie nagrody, może celowo opóźniać zakończenie swojej pracy, aby mieć więcej czasu na zdobywanie łatwych punktów.”
Zespół z TU Wien wybrał odmienną drogę, inspirując się filozofią. Normy są nadal reprezentowane jako formuły logiczne, ale agenci otrzymują karę, gdy ich nie przestrzegają. Na przykład, „nie wolno przekraczać prędkości” tłumaczone jest jako „jeśli przekroczysz prędkość, otrzymasz karę X.” Co ważne, każda norma traktowana jest jako niezależny cel.
Emery Neufeld, pierwszy autor artykułu, tłumaczy: „agent otrzymuje cel do osiągnięcia – na przykład znalezienie najlepszej trasy do listy miejsc docelowych. Jednocześnie definiujemy dodatkowe zasady i normy, których musi przestrzegać po drodze. Fakt, że każda norma jest traktowana jako odrębny cel, pozwala nam algorytmicznie obliczyć względną wagę, jaką musimy przypisać tym celom, aby uzyskać dobry wynik ogólny.”
Dzięki tej technice możliwe jest kodowanie nawet skomplikowanych zestawów reguł – na przykład norm, które obowiązują tylko w określonych warunkach, lub norm, które zależą od naruszenia innych norm.
„Wspaniałe jest to, że gdy normy się zmieniają, szkolenie nie musi zaczynać się od nowa” – dodaje Agata Ciabattoni. „Mamy system, który uczy się przestrzegać norm – ale możemy potem dostosować te normy, lub zmienić ich względne znaczenie, uznając jedną zasadę za ważniejszą od innej.”
Ciabattoni i jej zespół udowodnili, że ta technika pozwala na narzucenie szerokiego zakresu norm, podczas gdy AI nadal realizuje swoje główne cele. To obiecujący krok w kierunku tworzenia bardziej odpowiedzialnych i etycznych systemów sztucznej inteligencji.
