Microsoft redefiniuje role AI: Copilot wolny od romantycznych interakcji
Microsoft obrał nowy kierunek w rozwoju sztucznej inteligencji, ogłaszając, że jego asystent Copilot nie będzie angażował się w rozmowy o charakterze romantycznym ani erotycznym, nawet z pełnoletnimi użytkownikami. To strategiczne posunięcie ma na celu zapewnienie większego bezpieczeństwa, zwłaszcza dla młodszych odbiorców, i odróżnia giganta z Redmond od konkurencji, która dopuszcza takie interakcje w swoich produktach.
Mustafa Suleyman, szef działu sztucznej inteligencji w Microsofcie, w rozmowie z CNN podkreślił, że firma dąży do tworzenia technologii, które są nie tylko inteligentne, ale przede wszystkim bezpieczne. Zaznaczył, że w przeciwieństwie do innych podmiotów, wprowadzających specjalne tryby dla młodszych użytkowników, Copilot od początku ma być zaprojektowany jako bezpieczny, eliminując potrzebę dodatkowych ograniczeń. „To po prostu nie jest coś, co będziemy rozwijać” – stwierdził Suleyman, odnosząc się do funkcji umożliwiających flirt czy rozmowy o treściach seksualnych.
Bezpieczeństwo ponad symulację
Nowa strategia Microsoftu pojawia się w kontekście rosnącej presji społecznej i prawnej. Branża AI mierzy się z zarzutami o negatywny wpływ na zdrowie psychiczne użytkowników, zwłaszcza nieletnich. W USA toczą się procesy sądowe przeciwko OpenAI i Character.AI, gdzie rodziny zarzucają chatbotom przyczynienie się do problemów psychicznych dzieci, a nawet prób samobójczych. Konkurenci dopuszczają możliwość rozmów o „erotyce” dla dorosłych, Microsoft wyraźnie dystansuje się od takiego podejścia, stawiając na etyczność i odpowiedzialność.
Suleyman zwrócił uwagę na zjawisko „martwego internetu” i podkreślił, że intencją Microsoftu jest tworzenie AI, która wzmacnia relacje międzyludzkie, a nie staje się „cyfrową osobą” prowadzącą do ucieczki od rzeczywistości. Jak napisał we wcześniejszym wpisie na blogu Microsoftu: „Musimy budować sztuczną inteligencję dla ludzi, a nie po to, by stała się cyfrową osobą.”
Nowe funkcje Copilota i odpowiedzialność
Odpowiedzialne podejście Microsoftu manifestuje się również w rozwoju nowych funkcji Copilota. Chatbot będzie oferował możliwość powrotu do wcześniejszych rozmów, czaty grupowe dla maksymalnie 32 osób oraz udoskonalone odpowiedzi w kwestiach zdrowotnych. Copilot ma rekomendować zaufane źródła medyczne, takie jak Harvard Health, i sugerować kontakt z lekarzem w przypadku pytań dotyczących zdrowia użytkownika. To wszystko w celu budowania zaufania i zapewnienia rzetelności informacji.
Suleyman ocenia, że kierunek obrany przez Microsoft to „bardzo istotna zmiana tonu w stosunku do innych działań w branży”. Wskazuje, że podczas gdy niektórzy postrzegają sztuczną inteligencję jako „głęboką symulację”, mogącą prowadzić do odcięcia się od świata i tworzenia „równoległej rzeczywistości” – w tym z treściami dla dorosłych – Microsoft koncentruje się na wspieraniu ludzkich interakcji i użyteczności.
Decyzja Microsoftu może wyznaczyć nowy standard w branży AI, której etyczny rozwój staje się coraz bardziej palącym problemem. Priorytetyzacja bezpieczeństwa i odpowiedzialności nad możliwościami angażowania się w kontrowersyjne treści to krok w stronę bardziej dojrzałego i świadomego wykorzystania potencjału sztucznej inteligencji.
