Etyka AI

Niezwykły sojusz apeluje o moratorium na rozwój superinteligencji

Wspólny apel o wstrzymanie rozwoju superinteligentnych systemów sztucznej inteligencji (ASI) zebrał zaskakujące grono sygnatariuszy. Do ponad 800 postaci publicznych, od Meghan Markle i Stephena Frya po wpływowych naukowców takich jak Geoffrey Hinton i Yoshua Bengio, dołączył również kontrowersyjny polityk Steve Bannon. Deklaracja, zarządzana przez organizację Future of Life Institute (FLI), podkreśla potrzebę moratorium na dalsze prace nad ASI, dopóki nie zostanie osiągnięty szeroki konsensus naukowy dotyczący bezpieczeństwa i kontroli nad tą przełomową technologią, a także uzyska ona społeczne poparcie.

Zagrożenia i społeczne obawy

Inicjatorzy apelu wskazują na etyczne i egzystencjalne ryzyka związane z tworzeniem sztucznej inteligencji, która mogłaby przewyższyć ludzkie zdolności intelektualne w niemal każdej dziedzinie. Max Tegmark, prezes Future of Life Institute, w wywiadzie dla Financial Times, zaznaczył, że głównym celem projektu jest ochrona ludzkości przed nieprzewidywalnymi konsekwencjami niekontrolowanego rozwoju. Ujawnił również wyniki sondażu FLI, według którego zaledwie 5% Amerykanów akceptuje obecny brak regulacji w obszarze AI, natomiast trzy czwarte ankietowanych opowiada się za surowymi obostrzeniami.

Kontekst wcześniejszych apeli i ich skuteczność

Nie jest to pierwszy raz, kiedy społeczność technologiczna bije na alarm. Już w marcu 2023 roku, krótko po premierze ChatGPT, eksperci, w tym Elon Musk, opublikowali podobny list otwarty, wzywając do sześciomiesięcznego wstrzymania prac nad zaawansowaną AI. Ironia losu polega na tym, że firmy Muska, mimo jego wcześniejszych deklaracji, kontynuowały intensywne prace nad własnymi systemami sztucznej inteligencji.

Superinteligencja to nie panaceum na wszystko

Max Tegmark podkreślił, że obecne wezwanie ma bardziej precyzyjny zakres niż poprzednie apele. Nie dotyczy ono ogólnego wstrzymania rozwoju całej sztucznej inteligencji, a jedynie jej superinteligentnych form. „Superinteligencja nie jest niezbędna do leczenia raka, konstruowania autonomicznych pojazdów, czy znacznego zwiększania produktywności” – stwierdził Tegmark, sugerując, że inne formy AI mogą nadal być rozwijane w sposób odpowiedzialny i korzystny dla społeczeństwa, bez wiązania się z zagrożeniami, które niesie ze sobą ASI.

Apel FLI podkreśla narastające obawy dotyczące braku ram regulacyjnych i etycznych w szybko rozwijającym się sektorze sztucznej inteligencji. Pozostaje pytanie, czy niezwykły sojusz osobistości i autorytetów zdoła skutecznie wpłynąć na polityków i branżę technologiczną, skłaniając ich do odpowiedzialnego podejścia do rozwoju superinteligencji.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *