Etyka AI

Wirtualni uchodźcy ONZ: Ambicje i pierwsze kontrowersje projektu AI

Instytut badawczy Uniwersytetu Narodów Zjednoczonych (UNU-CPR) ujawnił eksperymentalny projekt dwóch awatarów napędzanych sztuczną inteligencją, których celem jest przybliżenie problematyki uchodźstwa oraz konfliktu w Sudanie. Projekt, który powstał w ramach zajęć prowadzonych przez Eduardo Albrechta, profesora z Columbia University i starszego współpracownika UNU-CPR, wywołał dyskusje zarówno na temat potencjału, jak i inherentnych ograniczeń technologii AI w tak wrażliwym kontekście.

Centralnymi postaciami eksperymentu są Amina, fikcyjna kobieta, która uciekła z Sudanu i przebywa w obozie dla uchodźców w Czadzie, oraz Abdalla, fikcyjny żołnierz z Sił Szybkiego Wsparcia (RSF) w Sudanie. Użytkownicy mieli mieć możliwość interakcji z tymi postaciami za pośrednictwem strony internetowej projektu, co miało umożliwić im zrozumienie różnych perspektyw konfliktu i jego konsekwencji dla cywilów.

Warto jednak odnotować, że pierwsze próby interakcji z platformą napotkały na problemy techniczne. Próby rejestracji użytkowników kończyły się komunikatem o błędzie, co podważa natychmiastową użyteczność i dostępność projektu. To rodzi pytania o gotowość tego typu inicjatyw do szerszego wdrożenia, zwłaszcza w kontekście tak poważnych zagadnień społecznych.

Eduardo Albrecht, komentując projekt dla redakcji 404 Media, podkreślił, że była to jedynie eksploracja koncepcji, a nie propozycja gotowego rozwiązania dla ONZ. Ta deklaracja rzuca światło na charakter przedsięwzięcia jako wczesnego etapu testowania idei, a nie dopracowanego narzędzia o natychmiastowej aplikacji.

Mimo eksperymentalnego charakteru, podsumowanie prac nad projektem sugeruje potencjalne przyszłe zastosowania awatarów, w tym ich wykorzystanie do „szybkiego przedstawienia sprawy darczyńcom”. To wskazuje na ambicje wykorzystania technologii AI do usprawnienia procesów pozyskiwania funduszy i komunikacji z interesariuszami, co może być postrzegane zarówno jako nowatorskie, jak i budzące wątpliwości etyczne.

Niemniej jednak, projekt spotkał się również z krytycznymi reakcjami. Jak zauważono w podsumowaniu prac, wielu uczestników warsztatów, którzy mieli okazję interakcji z awatarami, wyraziło negatywne odczucia. Wskazywano na przykład, że uchodźcy „są bardzo zdolni do samodzielnego wypowiadania się w prawdziwym życiu”, co sugeruje opory przed zastępowaniem autentycznych głosów osób doświadczonych przez awatary AI. Ta krytyka podkreśla kluczowe wyzwanie: jak wykorzystać technologię AI do wsparcia, a nie zastępowania ludzkiego doświadczenia i świadectwa, zwłaszcza w tak delikatnych i ważnych społecznie kwestiach jak kryzys uchodźczy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *