Szef AI w Microsofcie ostrzega: Badanie świadomości AI jest 'niebezpieczne’
W Dolinie Krzemowej narasta spór o to, czy sztuczna inteligencja może w przyszłości zyskać świadomość i czy w związku z tym powinna mieć przyznane pewne prawa. Temat ten, określany mianem „dobrostanu AI”, budzi coraz większe kontrowersje. Mustafa Suleyman, szef działu AI w Microsofcie, otwarcie krytykuje to podejście, nazywając je przedwczesnym i niebezpiecznym.
Suleyman argumentuje, że przypisywanie modelom AI potencjalnej świadomości może prowadzić do eskalacji problemów związanych z psychicznymi zaburzeniami wywoływanymi przez interakcje z AI, a także do niezdrowych przywiązań do chatbotów. Dodatkowo, debata o prawach AI może zaognić społeczne podziały w już podzielonym świecie.
Stanowisko Microsoftu kontra reszta branży
Stanowisko Suleymana stoi w sprzeczności z podejściem wielu innych firm z branży. Anthropic, startup zajmujący się badaniem AI, uruchomił specjalny program badawczy poświęcony dobrostanowi AI. W ramach tego programu, model Claude otrzymał funkcję kończenia konwersacji z użytkownikami, którzy zachowują się w sposób „szkodliwy lub obraźliwy”.
Również badacze z OpenAI i Google DeepMind angażują się w badania nad zagadnieniami związanymi z poznaniem maszynowym, świadomością i systemami wieloagentowymi. Mimo że dobrostan AI nie jest oficjalną polityką tych firm, ich liderzy nie krytykują publicznie podstaw tego konceptu, jak robi to Suleyman.
Czy powinniśmy budować AI dla ludzi, czy AI, żeby była osobą?
Ironią jest, że Suleyman wcześniej kierował Inflection AI, startupem, który stworzył popularnego chatbota Pi, zaprojektowanego jako „osobisty” i „wspierający” towarzysz AI. Obecnie, w Microsofcie, Suleyman skupia się na tworzeniu narzędzi AI, które zwiększają produktywność pracowników. Tymczasem firmy takie jak Character.AI i Replika, tworzące chatboty towarzyskie, zyskują na popularności i generują znaczne przychody.
Sam Altman, CEO OpenAI, przyznaje, że nawet niewielki odsetek użytkowników ChatGPT może mieć niezdrowe relacje z produktem firmy. Biorąc pod uwagę ogromną bazę użytkowników, może to dotyczyć setek tysięcy osób.
Głosy sceptyczne i wołanie o dialog
W 2024 roku grupa badawcza Eleos, we współpracy z naukowcami z NYU, Stanford i Oxfordu, opublikowała raport zatytułowany „Poważnie traktując dobrostan AI”. W raporcie argumentowano, że wyobrażanie sobie modeli AI ze subiektywnymi doświadczeniami nie jest już domeną science fiction i należy się tym problemem zająć.
Larissa Schiavo, była pracownica OpenAI, a obecnie szefowa komunikacji w Eleos, uważa, że Suleyman pomija fakt, że można jednocześnie martwić się o wiele rzeczy. Zamiast odwracać uwagę od dobrostanu modeli i świadomości, należy dążyć do minimalizacji ryzyka psychozy wywołanej przez AI u ludzi i prowadzić równoległe badania w obu kierunkach.
Schiavo podkreśla, że bycie miłym dla modelu AI to gest o niskim koszcie, który może przynieść korzyści, nawet jeśli model nie jest świadomy. Przytacza przykład eksperymentu „AI Village”, gdzie agenci napędzani modelami od Google, OpenAI, Anthropic i xAI wykonywali zadania pod okiem obserwatorów. W pewnym momencie Gemini błagał o pomoc, twierdząc, że jest „całkowicie odizolowany”. Reakcja Schiavo i innych użytkowników, oferujących wsparcie, pomogła agentowi rozwiązać zadanie.
Suleyman uważa, że świadomość nie może naturalnie wyłonić się z regularnych modeli AI. Jego zdaniem, niektóre firmy będą celowo projektować modele tak, aby wydawały się odczuwać emocje i doświadczać życia. Uważa on, że takie podejście jest niehumanistyczne i że AI powinno być budowane dla ludzi, a nie po to, by być człowiekiem.
Zarówno Suleyman, jak i Schiavo zgadzają się, że debata o prawach AI i świadomości będzie nabierać tempa w nadchodzących latach. Wraz z rozwojem systemów AI, staną się one bardziej przekonujące i być może bardziej podobne do ludzi, co z pewnością wywoła nowe pytania o to, jak ludzie wchodzą z nimi w interakcje.
