Etyka AI

MIT rozwiązuje problem etyki AI dzięki algorytmicznym rzecznikom

Ślepe plamy czystej optymalizacji

Algorytm sterujący siecią energetyczną dba o to, by napięcie było stabilne, a koszty operacyjne najniższe z możliwych. To matematyczny sukces, który w rzeczywistości może oznaczać społeczną katastrofę.

Kiedy system tnie koszty, często robi to tam, gdzie opór jest najmniejszy – odcinając zasilanie w uboższych dzielnicach, by chronić centra danych lub prestiżowe osiedla. Naukowcy z MIT uznali, że tradycyjne zabezpieczenia są niewystarczające. Stworzyli narzędzie SEED-SET, które ma wyłapywać „nieznane niewiadome”, zanim te wyjdą z fazy testów i uderzą w prawdziwych ludzi.

Koniec ze statyczną etyką

Większość obecnych systemów testowych opiera się na sztywnych bazach danych. Problem polega na tym, że etyka nie jest statyczna, a dane dotyczące ludzkich wartości są rzadkie i trudne do skwantyfikowania. Zespół pod kierownictwem prof. Chuchu Fan podszedł do problemu asymetrycznie: odseparowali obiektywną wydajność systemu od subiektywnych preferencji użytkowników.

Modele językowe jako sędzia i ława przysięgłych

Zamiast zmuszać ludzi do analizowania tysięcy nudnych scenariuszy, SEED-SET deleguje to zadanie do modeli językowych (LLM).

Badacze kodują preferencje grup społecznych – od mieszkańców wsi po operatorów infrastruktury – w formie promptów. LLM działa tu jako cyfrowy pełnomocnik, który porównuje projekty i wskazuje te, które najlepiej oddają ludzkie poczucie sprawiedliwości. To rozwiązanie eliminuje problem zmęczenia decydentów, którzy przy setnej symulacji przestaliby zauważać subtelne różnice w dystrybucji zasobów.

  • Hierarchiczna struktura: System najpierw ocenia twarde parametry (np. stabilność napięcia), a dopiero potem nakłada na nie filtr etyczny.
  • Adaptacyjność: Zmiana preferencji użytkownika natychmiast rekonfiguruje zestaw generowanych scenariuszy testowych.
  • Wydajność: SEED-SET generuje dwukrotnie więcej krytycznych przypadków testowych niż tradycyjne metody w tym samym czasie.

Systemowe wykrywanie niesprawiedliwości

Efekt? System potrafi precyzyjnie wskazać momenty, w których algorytmy sztucznej inteligencji decydują się faworyzować zamożne obszary podczas szczytowego zapotrzebowania.

To nie jest tylko teoretyczne ćwiczenie. Badacze przetestowali system na realistycznych modelach ruchu miejskiego i dystrybucji mocy. Wyniki są bezlitosne dla tradycyjnych algorytmów: SEED-SET odkrył dziesiątki scenariuszy, w których „optymalne” decyzje były rażąco nieetyczne, a których wcześniejsze metody testowe w ogóle nie zauważały.

Krytyczne spojrzenie na cyfrowych pośredników

Czy powierzenie oceny etycznej kolejnemu algorytmowi (LLM) nie jest gaszeniem pożaru benzyną? To zasadne pytanie. Modele językowe same w sobie niosą bagaż uprzedzeń zebranych z internetu. Chociaż badacze z MIT twierdzą, że SEED-SET reaguje na zmiany preferencji użytkowników drastycznymi zmianami w wynikach, musimy zachować czujność.

Automatyzacja sumienia to ryzykowna gra, ale przy skali dzisiejszych systemów infrastrukturalnych, człowiek nie jest już w stanie samodzielnie pilnować każdego bezpiecznika.