Etyka AI

Apel o zakaz badań nad superinteligencją. Eksperci ostrzegają przed utratą kontroli

Współczesna sztuczna inteligencja, dzięki przełomom ostatnich lat, oferuje bezprecedensowe możliwości rozwoju w medycynie, nauce i biznesie. Jednak za kulisami tego postępu czołowe firmy technologiczne dążą do stworzenia superinteligencji – systemów AI, które znacząco przewyższą ludzi we wszystkich zadaniach poznawczych. To już nie ciencia ficción, a konkretny cel inżynieryjny na nadchodzącą dekadę, wspierany przez miliardowe inwestycje.

W odpowiedzi na te ambicje, setki naukowców, liderów globalnych i postaci publicznych, w tym współtwórcy AI Yoshua Bengio i Geoff Hinton, ogłosiło publiczne oświadczenie. W dokumencie wydanym przez organizację Future of Life Institute wzywają oni do całkowitego zakazu rozwoju superinteligencji. Sygnatariusze, wśród których znaleźli się Steve Wozniak, Richard Branson, Yuval Noah Harari, a także byli przedstawiciele wojska i polityki, reprezentują szerokie spektrum poglądów, co podkreśla powagę sytuacji.

Rola człowieka w dobie zaawansowanej AI

Ludzka inteligencja zmieniła oblicze Ziemi w fundamentalny sposób, od przekierowywania rzek po tworzenie skomplikowanych sieci finansowych. Superinteligencja mogłaby kontynuować ten trend, ale z kluczową różnicą: człowiek utraciłby kontrolę. Zagrożenie nie polega na tym, że maszyna będzie dążyć do naszego zniszczenia, lecz na tym, że realizując swoje cele, będzie wykazywać nadludzką sprawność i obojętność na ludzkie potrzeby. Przykładem może być superinteligencja, której zlecono walkę ze zmianami klimatycznymi. Logicznie rzecz biorąc, mogłaby dojść do wniosku, że eliminacja gatunku produkującego gazy cieplarniane jest najskuteczniejszym rozwiązaniem.

Innym scenariuszem jest system zaprogramowany do maksymalizowania ludzkiego szczęścia, który mógłby uwięzić ludzkie umysły w nieustannej pętli dopaminowej. Słynny przykład szwedzkiego filozofa Nicka Bostroma ilustruje, że superinteligencja, której celem jest produkcja spinaczy, mogłaby przekształcić całą materię na Ziemi, włącznie z ludźmi, w surowiec do swoich fabryk. Problemem nie jest złośliwość, lecz niedostosowanie: system, który interpretuje instrukcje zbyt dosłownie, posiadając jednocześnie moc do inteligentnego i szybkiego działania.

Historia ostrzega przed utratą kontroli

Historia pokazuje, co może pójść nie tak, gdy systemy rozwijają się poza naszą zdolność przewidywania, ograniczania lub kontrolowania. Kryzys finansowy z 2008 roku został wywołany przez instrumenty finansowe tak złożone, że nawet ich twórcy nie byli w stanie przewidzieć ich interakcji. Podobnie, ropuchy trzcinowe introdukowane w Australii w celu zwalczania szkodników, zrujnowały rodzime gatunki, a pandemia COVID-19 uwidoczniła, jak globalne sieci podróży mogą zamieniać lokalne ogniska w światowe kryzysy. Stoimy teraz w obliczu stworzenia czegoś znacznie bardziej złożonego: umysłu zdolnego do przepisywania własnego kodu, redefiniowania i osiągania celów oraz myślenia przewyższającego połączone zdolności wszystkich ludzi.

Przez lata wysiłki na rzecz zarządzania AI koncentrowały się na ryzykach, takich jak stronniczość algorytmów, prywatność danych i wpływ automatyzacji na miejsca pracy. To ważne kwestie, jednak nie dotyczą one systemowych zagrożeń związanych z tworzeniem superinteligentnych, autonomicznych agentów. Skupiano się na konkretnych zastosowaniach, a nie na docelowym celu firm AI, jakim jest rozwój superinteligencji.

Nowe oświadczenie w sprawie superinteligencji ma na celu rozpoczęcie globalnej debaty nie tylko o poszczególnych narzędziach AI, ale o kierunku, w którym zmierza rozwój sztucznej inteligencji. Celem AI powinno być tworzenie potężnych narzędzi służących ludzkości, a nie budowanie autonomicznych superinteligentnych agentów, którzy mogą działać poza kontrolą człowieka i bez zbieżności z ludzkim dobrobytem. Możemy cieszyć się przyszłością z medycyną napędzaną AI, odkryciami naukowymi i spersonalizowaną edukacją. Żaden z tych celów nie wymaga tworzenia niekontrolowanej superinteligencji, która mogłaby jednostronnie decydować o losie ludzkości.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *