MIT rozwiązuje problem etyki AI dzięki algorytmicznym rzecznikom
Ślepe plamy czystej optymalizacji
Algorytm sterujący siecią energetyczną dba o to, by napięcie było stabilne, a koszty operacyjne najniższe z możliwych. To matematyczny sukces, który w rzeczywistości może oznaczać społeczną katastrofę.
Kiedy system tnie koszty, często robi to tam, gdzie opór jest najmniejszy – odcinając zasilanie w uboższych dzielnicach, by chronić centra danych lub prestiżowe osiedla. Naukowcy z MIT uznali, że tradycyjne zabezpieczenia są niewystarczające. Stworzyli narzędzie SEED-SET, które ma wyłapywać „nieznane niewiadome”, zanim te wyjdą z fazy testów i uderzą w prawdziwych ludzi.
Koniec ze statyczną etyką
Większość obecnych systemów testowych opiera się na sztywnych bazach danych. Problem polega na tym, że etyka nie jest statyczna, a dane dotyczące ludzkich wartości są rzadkie i trudne do skwantyfikowania. Zespół pod kierownictwem prof. Chuchu Fan podszedł do problemu asymetrycznie: odseparowali obiektywną wydajność systemu od subiektywnych preferencji użytkowników.
Modele językowe jako sędzia i ława przysięgłych
Zamiast zmuszać ludzi do analizowania tysięcy nudnych scenariuszy, SEED-SET deleguje to zadanie do modeli językowych (LLM).
Badacze kodują preferencje grup społecznych – od mieszkańców wsi po operatorów infrastruktury – w formie promptów. LLM działa tu jako cyfrowy pełnomocnik, który porównuje projekty i wskazuje te, które najlepiej oddają ludzkie poczucie sprawiedliwości. To rozwiązanie eliminuje problem zmęczenia decydentów, którzy przy setnej symulacji przestaliby zauważać subtelne różnice w dystrybucji zasobów.
- Hierarchiczna struktura: System najpierw ocenia twarde parametry (np. stabilność napięcia), a dopiero potem nakłada na nie filtr etyczny.
- Adaptacyjność: Zmiana preferencji użytkownika natychmiast rekonfiguruje zestaw generowanych scenariuszy testowych.
- Wydajność: SEED-SET generuje dwukrotnie więcej krytycznych przypadków testowych niż tradycyjne metody w tym samym czasie.
Systemowe wykrywanie niesprawiedliwości
Efekt? System potrafi precyzyjnie wskazać momenty, w których algorytmy sztucznej inteligencji decydują się faworyzować zamożne obszary podczas szczytowego zapotrzebowania.
To nie jest tylko teoretyczne ćwiczenie. Badacze przetestowali system na realistycznych modelach ruchu miejskiego i dystrybucji mocy. Wyniki są bezlitosne dla tradycyjnych algorytmów: SEED-SET odkrył dziesiątki scenariuszy, w których „optymalne” decyzje były rażąco nieetyczne, a których wcześniejsze metody testowe w ogóle nie zauważały.
Krytyczne spojrzenie na cyfrowych pośredników
Czy powierzenie oceny etycznej kolejnemu algorytmowi (LLM) nie jest gaszeniem pożaru benzyną? To zasadne pytanie. Modele językowe same w sobie niosą bagaż uprzedzeń zebranych z internetu. Chociaż badacze z MIT twierdzą, że SEED-SET reaguje na zmiany preferencji użytkowników drastycznymi zmianami w wynikach, musimy zachować czujność.
Automatyzacja sumienia to ryzykowna gra, ale przy skali dzisiejszych systemów infrastrukturalnych, człowiek nie jest już w stanie samodzielnie pilnować każdego bezpiecznika.
