Microsoft rozszerza Copilot Portraits: awatary z mimiką w Copilot Labs
Microsoft uruchomił w Copilot Labs eksperymentalną funkcję Copilot Portraits, która pozwala rozmawiać z wirtualnymi postaciami reagującymi mimiką i emocjonalnymi sygnałami. Cel jest pragmatyczny: ułatwić użytkownikom — od uczniów po profesjonalistów — bardziej angażujące ćwiczenia konwersacyjne tam, gdzie sama wymiana tekstu lub głosu okazuje się niewystarczająca.
Dotychczas Portraits były łączone z eksperymentem o nazwie Career Coach, skupionym na przygotowaniach do rozmów o pracę. Teraz Microsoft poszerza zastosowania: od wsparcia w rekrutacji, przez towarzyszenie w nauce, po platformę do ćwiczenia wystąpień publicznych. Do tego dochodzi tryb rozrywkowy, w którym użytkownik może porozmawiać z „przyszłą”, starszą wersją samego siebie.
Zmiana kierunku sugeruje, że Copilot ma być czymś więcej niż ogólnym chatbotem. Firma testuje połączenie generatywnej AI z awatarami o ludzkich cechach, by zbudować osobistego asystenta produktywności i nauki. Jeśli wczesne opinie będą pozytywne, część funkcji może trafić do szerszego grona użytkowników — choć harmonogramu wdrożenia na razie brak.
To jednak wciąż pilotaż z wyraźnymi ograniczeniami. Awatary pozostają w pełni generowane przez AI, a naturalność ekspresji i jakość dialogu dopiero się kształtują. Rozszerzenie dostępności uzależnione jest od feedbacku, a testy prowadzone są w środowisku Copilot Labs w Stanach Zjednoczonych.
Perspektywa bardziej „ludzkiej” interakcji rodzi też pytania. Czy mimika faktycznie poprawi efektywność nauki i treningu, czy tylko zwiększy wrażenie obcowania z człowiekiem? Jak Microsoft zaadresuje ryzyko nadmiernej antropomorfizacji, oczekiwań wobec emocjonalnych kompetencji AI i kwestie prywatności podczas quasi-emocjonalnych rozmów? Istotne będzie również, czy system potrafi udzielać trafnych, merytorycznych informacji zwrotnych w tak newralgicznych obszarach jak rekrutacja czy wystąpienia publiczne.
Jeśli eksperyment się powiedzie, Copilot może zyskać nową warstwę interfejsu: rozmowę, w której tekst, głos i obraz pracują razem. Na razie to interesujący sprawdzian, jak bardzo „twarz” AI zmienia dynamikę kontaktu z oprogramowaniem — i czy pomaga w realnych zadaniach, a nie tylko robi wrażenie.
