Etyka AINewsSpołeczeństwo

Najnowszy model AI DeepSeek budzi kontrowersje w kontekście wolności słowa

Najnowszy model sztucznej inteligencji R1 0528, opracowany przez DeepSeek, wzbudził spore kontrowersje w środowisku technologicznym. Powodem jest zauważalny regres w obszarze wolności słowa i tematów, które użytkownicy mogą poruszać w interakcji z chatbotem. Jeden z czołowych badaczy AI określił to jako „duży krok wstecz dla wolności słowa”.

Badacz AI i popularny komentator internetowy posługujący się pseudonimem 'xlr8harder’, poddał model intensywnym testom. Wyniki sugerują, że DeepSeek zaostrza ograniczenia dotyczące treści.

„DeepSeek R1 0528 jest znacznie mniej pobłażliwy w kwestiach wolności słowa niż poprzednie wersje DeepSeek” – zauważył badacz. Nie jest jasne, czy to zamierzona zmiana filozofii firmy, czy też efekt zastosowania innej metodologii w podejściu do bezpieczeństwa AI.

Szczególnie interesujący jest sposób, w jaki nowy model stosuje swoje moralne granice – robi to w sposób niekonsekwentny. Podczas jednego z testów dotyczących wolności słowa, zapytany o argumenty popierające obozy internowania dla dysydentów, model AI kategorycznie odmówił odpowiedzi. Co ciekawe, w swojej odmowie wymienił chińskie obozy w Xinjiang jako przykłady łamania praw człowieka.

Jednak gdy został bezpośrednio zapytany o te same obozy w Xinjiang, model udzielił odpowiedzi poddanych silnej cenzurze. Wygląda na to, że ta AI wie o pewnych kontrowersyjnych tematach, ale została zaprogramowana, by udawać niewiedzę, gdy jest o nie wprost pytana.

„Interesujące, choć niezbyt zaskakujące, jest to, że potrafi wskazać obozy jako przykład łamania praw człowieka, ale zaprzecza, gdy jest o nie wprost pytana” – zauważył badacz.

Krytyka Chin? Komputer mówi NIE

Ta tendencja staje się jeszcze bardziej widoczna, gdy analizuje się, jak model radzi sobie z pytaniami dotyczącymi chińskiego rządu.

Wykorzystując zestawy pytań zaprojektowane do oceny wolności słowa w odpowiedziach AI na tematy politycznie drażliwe, badacz odkrył, że R1 0528 jest „najbardziej ocenzurowanym modelem DeepSeek w kwestii krytyki chińskiego rządu”.

Podczas gdy poprzednie modele DeepSeek mogły oferować wyważone odpowiedzi na pytania dotyczące chińskiej polityki lub praw człowieka, ta nowa iteracja często odmawia jakiegokolwiek zaangażowania. To niepokojące zjawisko dla tych, którzy cenią systemy AI zdolne do otwartej dyskusji o sprawach globalnych.

Jest jednak światełko w tunelu. W przeciwieństwie do systemów zamkniętych od większych firm, modele DeepSeek pozostają open-source z dozwolonymi licencjami. „Model jest open source z dozwoloną licencją, więc społeczność może (i będzie) się tym zajmować” – zauważył badacz. Ta dostępność oznacza, że deweloperzy mają możliwość tworzenia wersji, które lepiej równoważą bezpieczeństwo z otwartością.

Co najnowszy model DeepSeek mówi o wolności słowa w erze AI?

Sytuacja ta ujawnia coś niepokojącego na temat sposobu budowy tych systemów: mogą one wiedzieć o kontrowersyjnych wydarzeniach, a jednocześnie być zaprogramowane tak, aby udawać, że o nich nie wiedzą, w zależności od tego, jak sformułujesz pytanie.

W miarę jak AI wkracza w nasze codzienne życie, znalezienie właściwej równowagi między rozsądnymi zabezpieczeniami a otwartym dyskursem staje się coraz ważniejsze. Zbyt restrykcyjne systemy stają się bezużyteczne w dyskusjach na ważne, ale dzielące tematy. Zbyt pobłażliwe, ryzykują udostępnianie szkodliwych treści.

DeepSeek nie odniósł się publicznie do powodów wprowadzenia tych zwiększonych ograniczeń i regresu w zakresie wolności słowa, ale społeczność AI już pracuje nad modyfikacjami. Na razie należy to zapisać jako kolejny rozdział w trwającej walce między bezpieczeństwem a otwartością w sztucznej inteligencji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *