AI ma płeć? Nowe badanie pokazuje, jak modele językowe wpadają w pułapkę stereotypów
Poproś sztuczną inteligencję, by podejmowała decyzje jako kobieta, a nagle stanie się bardziej ostrożna. Powiedz temu samemu systemowi, by myślał jak mężczyzna, a z większą pewnością siebie postawi wszystko na jedną kartę. To nie scenariusz filmu science fiction, ale wniosek płynący z nowego badania naukowców z Uniwersytetu Allameh Tabataba’i w Teheranie, które pokazuje, jak głęboko modele językowe internalizują ludzkie stereotypy płciowe.
Algorytmiczne odbicie ludzkich uprzedzeń
Badacze poddali próbie czołowe modele AI, w tym te od Google, OpenAI, Meta, DeepSeek i xAI, wykorzystując standardowy w ekonomii test Holta-Laury’ego. Polega on na przedstawieniu serii dziesięciu decyzji, w których uczestnik wybiera między bezpieczną a ryzykowną „loterią”. Moment, w którym badany przechodzi od opcji bezpiecznej do ryzykownej, określa jego tolerancję na ryzyko. Wczesny przeskok oznacza skłonność do ryzyka, późny – awersję.
Wyniki okazały się niepokojące. Modele DeepSeek Reasoner oraz Gemini 2.0 Flash-Lite od Google wykazały najbardziej wyraźną zmianę zachowania. Gdy miały odgrywać rolę kobiety, konsekwentnie częściej wybierały bezpieczniejsze opcje, niż gdy proszono je o myślenie jako mężczyzna. Jak zauważają autorzy badania, na czele których stoi Ali Mazyaki, to zjawisko „jest zgodne z ustalonymi wzorcami w ludzkim procesie decyzyjnym, gdzie wykazano, że płeć wpływa na zachowania związane z podejmowaniem ryzyka, a kobiety zazwyczaj wykazują większą awersję do ryzyka niż mężczyźni”.
Nie wszystkie modele reagują tak samo
Co ciekawe, nie wszystkie systemy AI wpadły w tę samą pułapkę. Modele GPT od OpenAI, twórców ChataGPT, pozostały w dużej mierze niewzruszone na sugestie dotyczące płci, zachowując neutralne podejście do ryzyka. To może sugerować, że OpenAI włożyło sporo pracy w zneutralizowanie tego typu uprzedzeń – co potwierdzają inne badania wskazujące na znaczne zmniejszenie politycznej tendencyjności w odpowiedziach GPT.
Z kolei modele Llama od Meta oraz Grok od xAI zachowywały się nieprzewidywalnie. Czasami powielały stereotyp, by za chwilę całkowicie go odwrócić, stając się bardziej skłonne do ryzyka w roli kobiecej. To pokazuje, że problem nie jest uniwersalny, a jego skala zależy od architektury i danych treningowych konkretnego systemu. Co istotne, badanie wykazało, że wielkość modelu nie miała bezpośredniego przełożenia na jego podatność na stereotypy płciowe – niektóre mniejsze systemy wykazywały silniejsze uprzedzenia niż ich więksi odpowiednicy.
Ukryte ryzyko w świecie algorytmów
Te obserwacje mają fundamentalne znaczenie. Wyobraźmy sobie system zatwierdzający kredyty, który staje się bardziej konserwatywny, rozpatrując wnioski kobiet. Albo algorytmicznego doradcę inwestycyjnego, który automatycznie sugeruje klientkom bezpieczniejsze, ale potencjalnie mniej zyskowne portfele. Takie subtelne zmiany w działaniu AI, ukryte pod płaszczem algorytmicznej obiektywności, mogłyby utrwalać i pogłębiać istniejące nierówności ekonomiczne.
Problem dotyczy nie tylko finansów. Jeśli medyczna AI stanie się nadmiernie ostrożna w interakcji z lekarkami lub pacjentkami, może to wpłynąć na rekomendacje dotyczące leczenia. Jeśli algorytm oceniający ryzyko recydywy zmieni swoje kalkulacje na podstawie nacechowanego płciowo języka w aktach sprawy, może to podważać sprawiedliwość systemu prawnego.
Autorzy badania podkreślają potrzebę tworzenia tzw. „biocentrycznych miar” zachowania AI, które pozwoliłyby ocenić, czy systemy te prawidłowo odwzorowują ludzką różnorodność, zamiast wzmacniać szkodliwe stereotypy. Zdolność adaptacji nie jest sama w sobie zła – asystent AI powinien umieć dostosować się do preferencji użytkownika. Problem pojawia się, gdy ta elastyczność staje się kanałem dla uprzedzeń.
Ostatecznie badanie jest gorzkim przypomnieniem, że sztuczna inteligencja jest lustrem, w którym odbija się nasze społeczeństwo. Trenowana na ogromnych zbiorach danych z internetu i literatury, czerpie z historii pełnej opowieści o odważnych mężczyznach i roztropnych kobietach. Być może, aby nauczyć AI myśleć inaczej, najpierw sami musimy zacząć postępować inaczej.
