Etyka AI

Mroczna strona owocowego trendu: mizoginia ukryta pod płaszczem AI-papki

Na pierwszy rzut oka to tylko kolejna absurdalna moda TikToka. Antropomorficzne truskawki, mango i klementynki stają przed sądem rodzinnym w programach typu „Fruit Paternity Court” lub rywalizują o względy partnerów w owocowych wersjach „Love Island”. Jednak za jaskrawymi kolorami i estetyką przypominającą animacje Disneya kryje się zjawisko znacznie bardziej toksyczne, niż sugerowałby to cukierkowy wygląd postaci. Eksperci i obserwatorzy alarmują: owocowe mikro-dramaty AI stają się nowym kanałem dla mizoginii i normalizacji przemocy.

Przemoc w wersji „light”

Treści tworzone przez algorytmy, takie jak te z konta FruitvilleGossip czy Ai Cinema, przyciągają miliony widzów. Mechanizm jest prosty: krótkie, intensywne odcinki budują napięcie wokół rzekomych zdrad, kłótni i publicznego upokarzania. Analiza tych materiałów ujawnia jednak powtarzalny schemat – to postacie żeńskie są w nich najczęściej bite, wyzywane, a nawet poddawane sugestiom przemocy seksualnej. Scenariusze obejmują wyrzucanie owocowych niemowląt przez okno, gotowanie bohaterek żywcem czy absurdalne kary za błahe czynności, jak choćby więzienie za… puszczanie gazów.

Jessica Maddox, profesor medioznawstwa na University of Georgia, zauważa, że te produkcje naśladują najgorsze cechy telewizyjnych reality show, ale robią to bez żadnych hamulców. O ile tradycyjne media podlegają regulacjom prawnym i etycznym, o tyle twórcy AI operują w szarej strefie, gdzie agresja wobec kobiet staje się paliwem dla algorytmów rekomendacji.

Algorytm karmi się skandalem

Twórcy tych treści nie kryją się z motywacjami. 20-letni student informatyki z Wielkiej Brytanii, prowadzący jedno z popularnych kont, przyznaje wprost: dramatyczne i skandaliczne sceny generują największe zasięgi. Wykorzystuje do tego precyzyjne prompty, nakazujące sztucznej inteligencji tworzenie postaci „pewnych siebie, seksownych truskawek” w stylu Pixara. To ironiczne, biorąc pod uwagę, że giganci animacji starają się chronić swój wizerunek, podczas gdy ich stylistyka jest masowo wykorzystywana do produkcji cyfrowego ścieku.

Mimo że TikTok zaczął już usuwać niektóre materiały za naruszanie zasad społeczności, zjawisko wciąż rośnie. Marki takie jak Olipop czy Slim Jim pojawiają się w sekcjach komentarzy, legitymizując ten nurt swoją obecnością. Widzowie, przyzwyczajeni do coraz krótszych form (tzw. microdramas), chłoną minutowe odcinki owocowych telenowel, często nie zauważając, jak bardzo przesycone są one dehumanizacją.

Zagrożenie dla rynku i psychiki

Zjawisko to ma też wymiar ekonomiczny. Aktorzy z Los Angeles, tacy jak Ben L. Cohen, zauważają, że owocowe dramaty AI kopiują strukturę niskobudżetowych seriali pionowych, które od dawna opierają się na clickbaitowej przemocy. Różnica polega na tym, że wygenerowanie owocowego „Love Island” jest tańsze i szybsze niż wynajęcie żywego aktora. Jeśli publiczność zaakceptuje tę formę rozrywki, AI może nie tylko wyprzeć ludzi z sektora cyfrowej reklamy, ale też trwale obniżyć standardy tego, co uznajemy za akceptowalne w przestrzeni publicznej.

To, co zaczęło się jako „brainrot” – bezmyślna treść zapychająca czas – ewoluowało w groźne narzędzie replikujące przemocowe wzorce. Choć fani domagają się kolejnych odcinków losów „Saladyny” czy „Strawberto”, cena za tę chwilową rozrywkę może być znacznie wyższa niż tylko zmarnowane kilka minut na TikToku.