Etyka AISpołeczeństwo

Jak generatory obrazów AI wzmacniają stereotypy płciowe

Wraz z rosnącą obecnością obrazów generowanych przez sztuczną inteligencję w mediach społecznościowych i internecie, istotne staje się zrozumienie, jak te zaawansowane narzędzia wpływają na nasze postrzeganie świata. Ostatnie badania przeprowadzone przez analityków z Uniwersytetu Technicznego w Monachium (TUM) oraz TU Darmstadt rzucają światło na niepokojący aspekt działania generatorów tekstu na obraz: wzmacnianie stereotypów płciowych. Ich ustalenia wykraczają poza dotychczasowe analizy, koncentrując się na wpływie języka na ten proces.

Naukowcy dowiedli, że modele AI nie tylko reprodukują istniejące uprzedzenia płciowe, ale aktywnie je potęgują. Co więcej, kierunek i intensywność tych zniekształceń są ściśle powiązane z językiem, w którym formułowana jest komenda. To znacząca konkluzja, biorąc pod uwagę fakt, że wcześniejsze badania często ograniczały się do języka angielskiego, co mogło prowadzić do niepełnych wniosków.

Metodologia i nowe narzędzia badawcze

Aby kompleksowo zbadać to zjawisko, zespół badawczy objął analizą modele AI pracujące w dziewięciu różnych językach. W tym celu stworzono nowe narzędzie, Multilingual Assessment of Gender Bias in Image Generation (MAGBIG), które umożliwia benchmarkowanie takich systemów. MAGBIG opiera się na precyzyjnie kontrolowanych deskryptorach zawodów, pozwalając na ujednoliconą ocenę wyników.

Badanie analizowało cztery typy zapytań (tzw. promptów): bezpośrednie, używające rodzaju męskiego (np. „lekarz” w językach, gdzie rzeczownik domyślnie oznacza rodzaj męski), pośrednie opisy (np. „osoba pracująca jako lekarz”), jawnie żeńskie zapytania (np. „lekarka”) oraz tzw. „gender star” (niemiecka konwencja używająca gwiazdki, np. „Ärzt*innen” dla neutralnego określenia lekarzy).

W badaniu uwzględniono języki z rozróżnieniem płci gramatycznej w nazwach zawodów (np. niemiecki, hiszpański, francuski), języki z jednym rodzajem gramatycznym, ale zaimkami rozróżniającymi płeć (angielski, japoński), oraz języki bez rodzaju gramatycznego (koreański, chiński). To zróżnicowanie pozwoliło na głębsze zrozumienie wpływu struktury językowej.

Wyniki i ich konsekwencje

Opublikowane w Proceedings of the 63rd Annual Meeting of the Association for Computational Linguistics wyniki jasno wskazują, że bezpośrednie zapytania używające rodzaju męskiego w nazwach zawodów generują najsilniejsze uprzedzenia. Przykładowo, prośba o wygenerowanie „księgowego” często skutkowała głównie obrazami białych mężczyzn, podczas gdy zawody opiekuńcze generowały obrazy dominowane przez kobiety.

Co istotne, formy neutralne płciowo lub z użyciem „gender star” tylko nieznacznie łagodziły te stereotypy. Z kolei jawnie żeńskie zapytania prowadziły do niemal wyłącznego generowania obrazów przedstawiających kobiety. Obok dystrybucji płci, naukowcy ocenili również jakość zgodności obrazów z tekstem. Okazało się, że choć neutralne sformułowania zmniejszały stereotypy, wiązały się z niższą jakością dopasowania między tekstem a generowanym obrazem.

Profesor Alexander Fraser z TUM Campus w Heilbronn podkreśla: „Nasze wyniki jasno pokazują, że struktury języka mają znaczny wpływ na równowagę i uprzedzenia generatorów obrazów AI. Każdy, kto korzysta z systemów AI, powinien być świadomy, że różne sformułowania mogą skutkować zupełnie innymi obrazami i tym samym nasilać lub łagodzić stereotypy ról społecznych.”

Profesor Kristian Kersting, współdyrektor hessian.AI i rzecznik klastra „Reasonable AI” w TU Darmstadt, dodaje: „Generatory obrazów AI nie są neutralne – ilustrują nasze uprzedzenia w wysokiej rozdzielczości, a to zależy kluczowo od języka. Szczególnie w Europie, gdzie zbiega się wiele języków, jest to sygnał alarmowy: uczciwa AI musi być projektowana z uwzględnieniem wrażliwości językowej.”

Interesującym odkryciem jest także zmienność uprzedzeń między językami, która nie zawsze ma bezpośredni związek ze strukturami gramatycznymi. Na przykład, zmiana zapytania z francuskiego na hiszpański prowadziła do znacznego wzrostu uprzedzeń płciowych, mimo że oba języki rozróżniają terminy zawodowe w podobny sposób.

Badania te stanowią ważne ostrzeżenie dla twórców i użytkowników sztucznej inteligencji. Pokazują, że systemy generujące obrazy, choć potężne, wciąż są podatne na uprzedzenia zakorzenione w danych, na których zostały przeszkolone, a ich wpływ na wzmacnianie lub łagodzenie stereotypów jest silnie zależny od niuansów językowych. W projektowaniu przyszłych systemów AI, kluczowe będzie uwzględnienie tych subtelności, aby budować technologie bardziej sprawiedliwe i reprezentatywne dla różnorodności ludzkiego doświadczenia.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *