Etyka w inteligentnych miastach: jak zaprogramować wartości w algorytmach AI?
W miarę jak samorządy lokalne wdrażają coraz bardziej autonomiczne technologie do zarządzania usługami miejskimi, rośnie prawdopodobieństwo napięć między oczekiwaniami obywateli a działaniem tych systemów. Koncepcja „inteligentnych miast” obejmuje szeroki wachlarz rozwiązań, od automatyzacji reagowania na zagrożenia, takich jak wykrywanie strzałów i wysyłanie służb porządkowych, po sterowanie sygnalizacją świetlną na podstawie danych z czujników ruchu. Te innowacje, choć mające na celu poprawę efektywności i bezpieczeństwa, niosą ze sobą szereg skomplikowanych pytań etycznych.
Kto decyduje o wartościach AI?
„Pojawiają się istotne pytania etyczne”, zaznacza Veljko Dubljević, profesor filozofii z Uniwersytetu Stanowego Karoliny Północnej i współautor badań w tej dziedzinie. „Na przykład, jeśli technologia AI błędnie zinterpretuje hałas jako strzał i wyśle oddział SWAT do obiektu handlowego, czy takie działanie jest uzasadnione? Kto decyduje o zakresie śledzenia i nadzoru przez technologie inteligentnego miasta? Jakie zachowania powinny skutkować wzmożonym nadzorem?”
Obecnie brakuje ujednoliconej procedury odpowiadania na te pytania, a tym bardziej jasnych wytycznych, jak szkolić sztuczną inteligencję w zakresie podejmowania etycznych decyzji. To wyzwanie skłoniło badaczy do poszukiwania nowych rozwiązań.
Model ADC jako podstawa etyki programowalnej
Naukowcy zwrócili uwagę na model Agenta, Czynu i Konsekwencji (Agent Deed Consequence – ADC), który w psychologii moralności opisuje, jak ludzie formułują sądy etyczne. Model ten zakłada, że w ocenie moralnej pod uwagę brane są trzy elementy: agent (charakter lub intencja jednostki), czyn (samo działanie) oraz konsekwencja (rezultat działania).
W artykule opublikowanym w czasopiśmie „Algorithms” badacze przedstawiają, w jaki sposób model ADC może zostać zaimplementowany w systemach sztucznej inteligencji. Kluczową cechą modelu jest wykorzystanie logiki deontycznej – gałęzi logiki, która zajmuje się pojęciami powinności i norm. „Pozwala nam to uchwycić nie tylko to, co jest prawdą, ale także to, co powinno być zrobione”, tłumaczy Daniel Shussett, pierwszy autor artykułu i badacz postdoktorancki na NC State.
Od teorii do praktycznych rozwiązań
Zastosowanie logiki deontycznej jest kluczowe dla AI, ponieważ „napędza działanie i może być wykorzystane przez system AI do rozróżniania uzasadnionych i nieuzasadnionych poleceń lub żądań”, dodaje Shussett. Przykładem może być zarządzanie ruchem drogowym: system AI, widząc ambulans na sygnale, powinien nadać mu priorytet. Natomiast pojazd prywatny, próbujący naśladować pojazd uprzywilejowany, nie powinien uzyskać zielonego światła. Dla ludzi intuicyjne jest odróżnienie tych sytuacji, jednak w przypadku komputerów wymagane jest stworzenie precyzyjnego wzoru matematycznego, który reprezentuje taki łańcuch rozumowania. Model ADC ma za zadanie właśnie to umożliwić.
Kolejne kroki
„Te rozwijające się technologie inteligentnych miast są wdrażane na całym świecie, a nasze badania sugerują, że model ADC może być użyty do rozwiązania pełnego zakresu pytań etycznych, jakie te technologie stwarzają”, konstatuje Shussett. Następnym etapem będzie testowanie modelu w symulacjach różnorodnych scenariuszy i technologii. Po pomyślnym przejściu tych testów, model będzie gotowy do wdrożenia w rzeczywistych warunkach.
Autorzy publikacji mają nadzieję, że ich podejście pozwoli decydentom i twórcom technologii lepiej zintegrować wartości programowane w systemach inteligentnych miast z etyką i oczekiwaniami ich mieszkańców, tworząc w ten sposób bardziej odpowiedzialne i sprawiedliwe rozwiązania miejskie.
