Social media

Algorytmiczna stronniczość na LinkedIn? Kobiety udają mężczyzn, by sprawdzić, czy platforma je dyskryminuje

Eksperyment, który wywołał burzę

Pewnego dnia Michelle, strateg produktowa, zalogowała się na swoje konto na LinkedIn i w ramach nietypowego eksperymentu zmieniła w profilu płeć na męską. Zmieniła również imię na Michael. Nie była jedyna. Wraz z dziesiątkami innych kobiet wzięła udział w akcji #WearthePants, która miała sprawdzić hipotezę, że nowy algorytm platformy jest stronniczy i dyskryminuje treści tworzone przez kobiety.

Inicjatywa zrodziła się z frustracji. Od miesięcy aktywne użytkowniczki i użytkownicy serwisu skarżyli się na drastyczne spadki zaangażowania i zasięgów. Zbiegło się to w czasie z ogłoszeniem przez LinkedIn, że platforma zaczęła wykorzystywać duże modele językowe (LLM) do lepszego dopasowywania treści do zainteresowań odbiorców. Dla Michelle, która ma ponad 10 tysięcy obserwujących, zmiany były szczególnie dotkliwe. Zauważyła, że posty, które pisała dla swojego męża, posiadającego zaledwie 2 tysiące obserwujących, generowały podobne zasięgi do jej własnych. „Jedyną istotną zmienną była płeć” – stwierdziła w rozmowie z TechCrunch.

Wyniki eksperymentu okazały się zaskakujące. Marilynn Joyner, założycielka jednej z firm, po zmianie płci w profilu odnotowała wzrost zasięgów o 238% w ciągu zaledwie jednego dnia. Podobne rezultaty zgłaszały dziesiątki innych uczestniczek, podsycając dyskusję na temat ukrytych uprzedzeń wbudowanych w kod platformy.

LinkedIn zaprzecza, eksperci studzą emocje

Platforma stanowczo odrzuca oskarżenia. W oficjalnym komunikacie firma zapewniła, że jej „algorytmy i systemy AI nie wykorzystują informacji demograficznych, takich jak wiek, rasa czy płeć, jako sygnału do określania widoczności treści”. LinkedIn twierdzi, że dane demograficzne są używane wyłącznie do wewnętrznych testów, które mają zapewnić, że treści różnych twórców „konkurują na równych warunkach”.

Eksperci od etyki danych, tacy jak Brandeis Marshall, wskazują jednak, że problem jest znacznie bardziej złożony. Nawet jeśli algorytm nie faworyzuje mężczyzn wprost, może robić to w sposób ukryty. „Platformy to skomplikowana symfonia algorytmów, które nieustannie wpływają na wiele matematycznych i społecznych dźwigni” – tłumaczy Marshall. Zmiana zdjęcia czy imienia to tylko jedna z nich. Na ostateczny zasięg wpływa cała historia interakcji użytkownika, jego sieć kontaktów, a nawet styl pisania.

Niewidzialna ręka uprzedzeń

Kluczem do zrozumienia problemu może być pojęcie stronniczości ukrytej (implicit bias). Duże modele językowe są trenowane na ogromnych zbiorach danych tekstowych stworzonych przez ludzi. W efekcie uczą się i powielają istniejące w społeczeństwie stereotypy. Jak zauważają badacze, wiele popularnych modeli LLM przejawia uprzedzenia seksistowskie czy rasistowskie, ponieważ odzwierciedlają one dane, na których je wytrenowano.

Michelle, uczestniczka eksperymentu, przyznała, że jako „Michael” nie tylko zmieniła płeć, ale też nieznacznie zmodyfikowała swój styl pisania na bardziej bezpośredni i uproszczony – taki, jakiego używa, pisząc posty dla męża. Efekt? Wzrost zasięgów o 200% i zaangażowania o 27%. Jej wniosek: system nie jest „otwarcie seksistowski”, ale zdaje się traktować style komunikacji powszechnie kojarzone z kobietami jako „mniej wartościowe”. Jeśli algorytm został nauczony promować treści zwięzłe i stanowcze, stereotypowo przypisywane mężczyznom, to jest to właśnie forma ukrytej dyskryminacji.

Niepewność dotyka wszystkich

Problem z nowym algorytmem LinkedIn wykracza jednak poza kwestię płci. Wielu użytkowników, niezależnie od tożsamości, wyraża frustrację i niezrozumienie wobec jego działania. Niektórzy notują wzrosty, chwaląc platformę za promowanie treści eksperckich i niszowych. Inni, jak data scientist Shailvi Wakhulu, która przez pięć lat publikowała regularnie, obserwują spadek widoczności z tysięcy do zaledwie kilkuset wyświetleń, co nazywa „demotywującym”.

Przedstawiciele LinkedIn tłumaczą, że na platformie panuje po prostu większa konkurencja – liczba publikowanych postów wzrosła o 15% rok do roku. Obecnie premiowane mają być treści zawierające analizy branżowe, lekcje zawodowe i wiedzę ekspercką. To jednak nie uspokaja użytkowników, którzy domagają się większej przejrzystości.

Wydaje się jednak, że na pełną transparentność nie ma co liczyć. Algorytmy dobierające treści to najściślej strzeżone tajemnice firm technologicznych. Ich ujawnienie otworzyłoby drogę do manipulacji i „grania pod algorytm”. Użytkownikom pozostaje więc metoda prób i błędów oraz gorzka świadomość, że o ich widoczności w sieci decyduje nieprzenikniona, czarna skrzynka kodu, w której mogą kryć się ludzkie uprzedzenia.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *