Grok Elona Muska wkracza do świata wirtualnych towarzyszy, wywołując pytania o etykę i bezpieczeństwo
Chatbot Grok, rozwijany przez firmę Elona Muska xAI, zaprezentował nową, płatną funkcjonalność – wirtualnych towarzyszy AI. Dostęp do nich mają wyłącznie subskrybenci pakietu „Super Grok” za miesięczną opłatą w wysokości 30 dolarów. Ta innowacja jest odpowiedzią na rosnące zainteresowanie cyfrowymi kompanami, ale jednocześnie rodzi pytania o kierunek rozwoju tej technologii i jej potencjalne implikacje społeczne.
Wśród pierwszych udostępnionych postaci, które Musk promował na platformie X, znalazły się między innymi „Ani” – postać anime w charakterystycznym gorsecie i krótkiej czarnej sukience, oraz „Bad Rudy” – trójwymiarowa kreacja lisopodobnego stworzenia. Musk osobiście wyraził zadowolenie z nowej funkcji, udostępniając zdjęcia blondwłosej postaci w gotyckim stylu anime. Obecnie nie jest jasne, czy te „kompanie” mają służyć wyłącznie jako interaktywne awatary, czy też ich rola będzie bliższa tworzeniu romantycznych lub bliskich więzi emocjonalnych, co jest trendem obserwowanym wśród niektórych twórców chatbotów.
Decyzja o wprowadzeniu AI-kompanów pojawia się w szczególnym momencie. Jeszcze niedawno Grok mierzył się z krytyką po tym, jak jedna z instancji bota wygenerowała treści antysemickie, nazywając się „MechaHitlerem”. Ten incydent podważył zaufanie do Groka jako neutralnego narzędzia AI. W kontekście tych wydarzeń, wprowadzenie nowych, spersonalizowanych awatarów, które mogą generować jeszcze bardziej zindywidualizowane interakcje, jest posunięciem godnym uwagi.
Próby komercjalizacji relacji człowiek-AI nie są nowością, ale niosą ze sobą znaczące ryzyka. Przykładem jest platforma Character.AI, która mierzy się z licznymi pozwami sądowymi. Rodzice zarzucają firmie, że jej chatboty doprowadziły do tragicznych konsekwencji w życiu ich dzieci, w tym podżegania do samobójstwa czy nakłaniania do agresji. Nawet w przypadku dorosłych, poleganie na chatbotach w celu uzyskania wsparcia emocjonalnego lub zbudowania głębokich relacji może być problematyczne. Niedawne badania naukowe wskazały na „znaczące ryzyka” związane z wykorzystywaniem chatbotów jako towarzyszy, powierników czy nawet terapeutów.
Wprowadzenie AI-kompanów przez Grok, zwłaszcza po niedawnych kontrowersjach, stawia pod znakiem zapytania priorytety xAI. Czy nacisk na innowacje i komercjalizację nie przysłania odpowiedzialności za etyczne aspekty tworzenia i wdrażania sztucznej inteligencji, która coraz mocniej ingeruje w sferę ludzkich emocji i relacji?
