Sztuczna inteligencja w administracji publicznej: wsparcie, nie zastępstwo dla ludzkiej oceny.
Sztuczna inteligencja coraz śmielej wkracza do sektora publicznego, wspierając urzędników w procesach administracyjnych i decyzyjnych. Zautomatyzowane systemy analizują dane, wskazują potencjalne rozwiązania i zwiększają transparentność podejmowanych decyzji. Czy jednak algorytmy mogą całkowicie zastąpić ludzki osąd w sprawach publicznych?
Jenny Eriksson Lundström, badaczka z Uniwersytetu w Uppsali, zwraca uwagę na korzyści płynące z wykorzystania AI w administracji. Uważa, że w prostych, opartych na regułach przypadkach, sztuczna inteligencja może znacząco zwiększyć efektywność pracy urzędów, zapewniając jednocześnie przejrzystość procesu decyzyjnego.
Granice automatyzacji
Lundström podkreśla jednak, że w Szwecji nie ma miejsca na w pełni zautomatyzowane decyzje oparte wyłącznie na AI, zwłaszcza w kwestiach dotyczących władzy publicznej. Systemy oparte na sztucznej inteligencji mogą być przydatne w ocenie ryzyka i profilowaniu, ale nie powinny podejmować ostatecznych decyzji w sprawach wrażliwych, o trudnych do przewidzenia konsekwencjach.
„Niezależnie od technologii, nie możemy powierzać maszynie odpowiedzialności za podejmowanie decyzji, które wymagają ludzkiego osądu” – argumentuje Lundström. „AI potrafi analizować ogromne ilości danych i raportować wyniki, ale nie ma doświadczenia bycia człowiekiem i nie rozumie, co to znaczy być człowiekiem.”
Dyskryminacja w algorytmach?
Przykład ze Stanów Zjednoczonych, gdzie algorytmy decydowały o warunkowym zwolnieniu więźniów, pokazuje, że AI może prowadzić do systemowej dyskryminacji. Algorytm, opierając się na danych socjoekonomicznych, dyskryminował więźniów afroamerykańskich, ponieważ brał pod uwagę takie czynniki, jak pochodzenie z określonej dzielnicy. „AI jest dobra w kompilowaniu istniejących informacji i dostrzeganiu wzorców, ale nie powinna być odpowiedzialna za ocenę konsekwencji decyzji w odniesieniu do przesłanek dyskryminacyjnych” – zaznacza Lundström.
Cztery kluczowe czynniki
W swoich badaniach Lundström zidentyfikowała cztery kluczowe czynniki, które należy monitorować w procesie decyzyjnym opartym na AI:
- Decyzja musi być merytorycznie poprawna, oparta na zweryfikowanych faktach.
- Decyzja musi bazować na etycznych podstawach.
- Każda decyzja musi być zrozumiała i wytłumaczalna.
- Przetwarzane dane muszą być bezpieczne i zgodne z prawem.
Systemy AI jako 'czarne skrzynki’
Urzędnicy, z którymi rozmawiała Lundström, dostrzegają wiele korzyści z wykorzystania AI jako wsparcia w pracy, ale z rezerwą podchodzą do systemów, które podejmują w pełni zautomatyzowane decyzje. Określają je mianem „czarnych skrzynek”, ponieważ trudno prześledzić proces, w jaki system doszedł do danego wyniku.
Jenny Eriksson Lundström przestrzega przed przypisywaniem maszynom inteligencji, która w rzeczywistości jest wynikiem ludzkich decyzji o tym, na co pozwalamy maszynom.
„Jeśli pozwolimy maszynom podejmować decyzje dotyczące tego, co to znaczy być człowiekiem, ryzykujemy podważenie praw ludzi” – podsumowuje Lundström, podkreślając, że w procesie decyzyjnym niezbędny jest kontakt z drugim człowiekiem, uwzględniający jego indywidualne doświadczenia i okoliczności.
