Nie cenzura, a kolejność postów: akademicy testują sposób na ograniczenie polaryzacji na X
Algorytmy budujące nasze feedy od lat premiują treści, które wzbudzają silne emocje. Teraz naukowcy proponują kontr-ruch: zamiast cenzurować, zmienić kolejność. W badaniu opublikowanym w Science zespół ze Stanford University, University of Washington i Northeastern University pokazał, że klientowa modyfikacja rankingu na platformie X może ograniczyć polaryzację afektywną użytkowników — i to bez udziału samej platformy.
Kontr‑algorytm zamiast cenzury
Projekt kierowany przez prof. Michaela Bernsteina i dr. Tiziano Piccardiego przybrał formę rozszerzenia do Chrome i Edge. Wtyczka działa w czasie rzeczywistym: przechwytuje kolejność postów w serwisie X i nie usuwa niczego, a jedynie spycha najostrzejsze wpisy niżej w strumieniu. Efekt dla użytkownika? Przy pierwszym załadowaniu feedu około trzy sekundy dodatkowego opóźnienia — i mniej materiałów żerujących na wrogości partyjnej na górze ekranu.
Jak działa wtyczka
Sercem rozwiązania jest model językowy GPT‑3.5 Turbo, który ocenia każdy post pod kątem ośmiu kategorii określanych jako AAPA (postawy antydemokratyczne i wrogość partyjna). Wśród nich są m.in. poparcie dla przemocy politycznej, sprzeciw wobec współpracy ponad podziałami czy stronnicza interpretacja faktów. Każdy wpis otrzymuje łączny wynik od 0 do 8. Te z wynikiem 4 lub wyższym trafiają niżej w rankingu wyświetlania. W efekcie użytkownik wciąż może je zobaczyć, ale musi przewinąć dalej, by do nich dotrzeć.
Co pokazał eksperyment
Badanie przeprowadzono latem ubiegłego roku — w jednym z najbardziej napiętych momentów amerykańskiej polityki: po próbie zamachu na Donalda Trumpa, po rezygnacji Joe Bidena i wraz z nominacją Kamali Harris. Wzięło w nim udział 1256 użytkowników X identyfikujących się jako Demokraci (66%) lub Republikanie (34%). Każdy uczestnik przechodził trzy dni bazowe bez interwencji, a następnie siedem dni z aktywną modyfikacją feedu.
Testowano dwa warianty. W scenariuszu „Reduced Exposure” wszystkie wpisy AAPA lądowały na dole feedu, co zredukowało ekspozycję na tego typu treści o 89,6% — z około 10% do 1,04% strumienia. W wariancie „Increased Exposure” te same treści były sztucznie promowane, podbijając ekspozycję o 26,4%.
Efekty były wyraźne i symetryczne. Gdy ograniczano kontakt z treściami AAPA, badani deklarowali cieplejsze uczucia wobec politycznych oponentów o 2,11 punktu na 100‑stopniowej skali tzw. termometru uczuć. Gdy ekspozycję zwiększano, notowano spadek o 2,48 punktu. W świecie badań nad polaryzacją to wielkości odpowiadające mniej więcej trzem latom „naturalnych” zmian. Dla kontekstu: w USA polaryzacja rośnie średnio o 4,8 punktu na dekadę — to jeden z najwyższych trendów wśród demokracji.
Emocje, nie tylko deklaracje
Naukowcy mierzyli też stany emocjonalne w czasie rzeczywistym, w krótkich ankietach osadzonych w feedzie. Zmniejszona ekspozycja na treści AAPA obniżała poziom złości o 5,05 punktu i smutku o 3,68 punktu. W wariancie ze zwiększoną ekspozycją te emocje rosły w zbliżonej skali. Co istotne, efekt nie był jednostronny: działał podobnie na liberałów i konserwatystów, bez istotnych różnic między grupami.
Ograniczenia i niewygodne pytania
Autorzy badania uczciwie wskazują ograniczenia. Próba obejmowała wyłącznie amerykańskich użytkowników, a interwencja dotyczyła webowej wersji X, w krótkim, wyjątkowo gorącym okresie kampanii. Nie wiadomo, czy efekt utrzymałby się długofalowo, gdy opadnie temperatura sporu i zmienią się tematy dnia.
Warto też odnotować naturę zastosowanego filtra. Klasyfikację treści wykonuje duży model językowy, co rodzi pytania o spójność ocen w czasie, potencjalne błędy i wrażliwość na kontekst. Granica między „antagonizmem” a ostrą, ale uprawnioną krytyką bywa cienka — a pomyłki mogą niekiedy spychać w dół treści istotne społecznie. Otwarte pozostają też kwestie praktyczne, jak koszty i prywatność przetwarzania treści przy skalowaniu rozwiązania poza środowisko badawcze.
Technicznie to podejście nie wymaga współpracy platformy, ale pozostaje kruche wobec zmian po stronie serwisu. Wystarczy modyfikacja sposobu ładowania feedu lub polityki API, by takie rozszerzenia przestały działać. To ważny sygnał: realna trwałość „kontr‑algorytmów” może zależeć od woli platform — albo od regulacji.
Większa stawka: kontrola algorytmów i prawo
„Algorytmy social mediów bezpośrednio wpływają na nasze życie, a do tej pory tylko platformy mogły je rozumieć i kształtować” — podkreśla prof. Michael Bernstein. Zespół sugeruje, że podobne narzędzia mogą ewoluować w stronę modelu, w którym użytkownik zyskuje realną kontrolę nad rankingiem: decyduje, co promować, a co zepchnąć niżej. Nie tylko na X, ale potencjalnie także w innych serwisach.
Taki kierunek wpisuje się w europejską dyskusję wokół Digital Services Act. Jeżeli algorytmy faktycznie modulują emocje i postawy polityczne, a jednocześnie platformy mają finansowy bodziec, by premiować treści wywołujące zaangażowanie, regulatorzy mogą sięgnąć po twardsze narzędzia: wymuszoną transparentność i standardy projektowania systemów rekomendacyjnych. Niezależny audyt algorytmów przestaje być wyłącznie ambicją naukową — staje się elementem infrastruktury demokratycznej.
Co dalej
Wyniki pokazują, że niewielka, celowana modyfikacja kolejności postów potrafi przesunąć emocjonalny termometr o zauważalną wartość — i to po obu stronach sporu. To nie jest panaceum na dezinformację, bańki filtrujące czy toksyczne interakcje, ale wiarygodny, mierzalny punkt nacisku na systemy, które dotąd uznawano za czarne skrzynki.
By takie rozwiązania wyszły poza laboratorium, potrzebne będą decyzje platform lub presja regulacyjna. Jeśli jednak użytkownicy i badacze zyskają większy wpływ na algorytmy, feedy mogą stać się nie tyle „sterylne”, co bardziej użyteczne: mniej rozemocjonowane na wejściu, a przez to bliższe temu, co obiecują od lat — lepszemu dostępowi do informacji.
