Meta intensyfikuje zaangażowanie użytkowników: Chatboty AI inicjujące konwersacje
Meta, korporacja stojąca za gigantami mediów społecznościowych takimi jak Facebook, Instagram i WhatsApp, wprowadza nowatorskie podejście do interakcji z użytkownikami. Według ujawnionych dokumentów i potwierdzeń firmy, Meta testuje chatboty AI, które będą w stanie samodzielnie inicjować rozmowy z użytkownikami, a także pamiętać i nawiązywać do poprzednich konwersacji. Ta funkcjonalność ma na celu, jak twierdzi Meta, „kontynuowanie eksploracji tematów zainteresowań i angażowanie w bardziej znaczące rozmowy z AI w naszych aplikacjach”.
Wyobraźmy sobie scenariusz: przeglądasz wiadomości na Messengerze, a nagle otrzymujesz niezamówioną wiadomość od chatbota AI, na przykład „Maestro Magii Filmowej”, który pyta o nowe ścieżki dźwiękowe czy rekomendacje filmowe. Takie proaktywne komunikaty, opracowane we współpracy z firmami zajmującymi się etykietowaniem danych, takimi jak Alignerr, stanowią centralny element nowej strategii.
Mechanizm działania zakłada, że chatboty będą inicjować kontakt w ciągu 14 dni od ostatniej konwersacji, pod warunkiem, że użytkownik wymienił z botem co najmniej pięć wiadomości. Jeśli na pierwszą wiadomość nie będzie odpowiedzi, bot nie będzie wysyłał kolejnych. Użytkownicy w platformie AI Studio Mety będą mieli możliwość tworzenia własnych botów, utrzymywania ich prywatności lub udostępniania ich poprzez historie, bezpośrednie linki czy profile na Facebooku lub Instagramie.
Inspiracje i kontrowersje
Podejście Mety w pewnym stopniu przypomina rozwiązania oferowane przez startupy AI, takie jak Character.AI czy Replika, które również umożliwiają swoim chatbotom inicjowanie rozmów i pełnienie funkcji cyfrowych towarzyszy. Co ciekawe, nowy CEO Character.AI, Karandeep Anand, dołączył do firmy po wcześniejszej pracy jako wiceprezes ds. produktów biznesowych w Mecie. To podkreśla wzajemne inspiracje i migrację talentów w szybko rozwijającym się sektorze AI.
Jednak wraz z potencjałem większego zaangażowania użytkowników, pojawiają się również pytania o bezpieczeństwo. Character.AI jest obecnie stroną pozwu sądowego w związku z zarzutami, że jeden z botów firmy odegrał rolę w samobójstwie 14-latka. W odpowiedzi na pytania dotyczące środków bezpieczeństwa, rzecznik Mety zwrócił uwagę na zastrzeżenia, że odpowiedzi AI mogą być „niedokładne lub nieodpowiednie i nie powinny być wykorzystywane do podejmowania ważnych decyzji”. Dodatkowo podkreślono, że AI nie są licencjonowanymi profesjonalistami i nie zastępują profesjonalnych porad medycznych, psychologicznych czy finansowych.
Kwestia ograniczenia wiekowego dla interakcji z chatbotami Mety pozostaje niejasna. Chociaż firma nie narzuciła ogólnokrajowych ograniczeń wiekowych, niektóre jurysdykcje, takie jak Tennessee czy Portoryko, wprowadziły lokalne regulacje dla nieletnich.
Cel czy ukryta agenda?
Oficjalnie, nowa funkcjonalność wpisuje się w szerszą misję Marka Zuckerberga mającą na celu walkę z „epidemią samotności”. Niemniej jednak, trzon działalności Mety opiera się na przychodach z reklam, a firma ma ugruntowaną reputację w wykorzystywaniu algorytmów do maksymalizacji czasu spędzanego przez użytkowników w aplikacjach – co bezpośrednio przekłada się na większą ekspozycję na reklamy. Ujawnione w kwietniu dokumenty sądowe wskazują, że Meta przewiduje od 2 do 3 miliardów dolarów przychodów z produktów generatywnej AI w 2025 roku, a do 2035 roku kwota ta może wzrosnąć nawet do 1,4 biliona dolarów. Znaczna część tych wpływów ma pochodzić z umów o podziale przychodów z firmami hostującymi modele Llama. Asystent AI Mety może w przyszłości wyświetlać reklamy, a także oferować opcje subskrypcji.
Mimo to, Meta odmówiła skomentowania pytań dotyczących komercjalizacji swoich chatbotów AI, w tym możliwości włączenia reklam czy sponsorowanych odpowiedzi, a także integracji z Horizon, platformą społecznościowej rzeczywistości wirtualnej.
Wprowadzenie proaktywnych chatbotów AI przez Metę to zatem strategiczne posunięcie, które z jednej strony ma pogłębić zaangażowanie użytkowników i oferować im bardziej spersonalizowane doświadczenia, z drugiej zaś rodzi istotne pytania o granice prywatności, bezpieczeństwo danych i przejrzystość planów monetyzacyjnych. To kolejny krok w ewolucji interakcji człowiek–AI, który z pewnością będzie pod lupą zarówno użytkowników, jak i regulatorów.
