Gen AI

Meta szykuje duży skok w Meta AI. Wyciek z webowej wersji zdradza Reasoning, Research, Storybook i dyktowanie głosowe

Meta przyspiesza z Meta AI. W webowej aplikacji pojawiły się ukryte pozycje menu, które wskazują na przygotowania do dużej aktualizacji: Reasoning, Research, Storybook, Canvas, Connections, Think Hard oraz Search, a także dyktowanie głosowe. To zestaw funkcji, który – jeśli trafi do użytkowników w jednym rzucie – pozwoliłby Meta domknąć część braków względem liderów rynku modeli językowych.

Co zdradza nowe menu

Obecnie większość użytkowników na stronie Meta AI widzi uproszczony interfejs z naciskiem na generowanie obrazów (Imagine). Pod spodem widać jednak fundamenty pod bardziej zaawansowane moduły. Wcześniejsze materiały z okresu prac nad Llama 4 sugerowały, że Meta planowała m.in. tryb głosowy i Canvas. W mobilnej wersji elementy głosowe już funkcjonują, ale web wciąż nie ma pełnej parytetowej obsługi – układ menu wskazuje, że to może się zmienić.

Wyciek wymienia konkretne pozycje: Reasoning (dedykowany tryb rozumowania), Canvas (przestrzeń do współtworzenia), Connections (integracje z zewnętrznymi źródłami, np. Dyskiem Google), Think Hard (tryb o wyższym budżecie obliczeniowym), Research (narzędzia do pogłębionych kwerend), Search (odwołania źródłowe, wyszukiwanie) oraz Storybook (generator narracji). Część z tych funkcji była prototypowana, ale nigdy szeroko nieudostępniona – typowy wzorzec dla Meta AI.

Sygnalny wzrost i presja na parytet funkcji

Według branżowych obserwacji aktywność w Meta AI wzrosła wyraźnie po uruchomieniu strumienia Vibes, opisywanego jako zasilany przez Midjourney. Dane Similarweb z końca września również wskazują na skok zainteresowania webową aplikacją. Meta wykorzystuje ten moment, by scalić rozproszone dotąd możliwości w spójny produkt – tak, by przyciągnąć zaawansowanych użytkowników i twórców oraz zmniejszyć dystans do konkurencyjnych platform.

Na tle rozwiązań rynkowych proponowane moduły wpisują się w obecne standardy: „deep research”, rozszerzone wnioskowanie, integracje z chmurą, tryby wysokiej precyzji odpowiedzi i generowanie opowieści to już rynkowe minimum w topowych narzędziach. Jeśli Meta wyda je łącznie, redukcja różnic funkcjonalnych może być zauważalna od pierwszego dnia.

Co może trafić do użytkowników i po co

Najciekawszymi pozycjami są Reasoning oraz Think Hard, które sugerują oddzielne ścieżki obliczeń dla złożonych zadań i dłuższego „namysłu” modelu. Research i Search to ukłon w stronę użytkowników oczekujących wiarygodnych cytowań i pracy na materiałach źródłowych. Canvas może z kolei zintegrować generowanie treści z prostą współpracą, co w ekosystemie Meta – pełnym grup, stron i kanałów – ma czytelny sens produktowy. Storybook wpisuje się w trend narzędzi narracyjnych, od krótkich form po dłuższe szkice.

Cel Meta wydaje się dwojaki: odzyskać użytkowników szukających „jednego okna” do pracy z AI oraz ujednolicić doświadczenie między mobile a webem, w tym ostatecznie dostarczyć pełną obsługę głosu w przeglądarce.

Terminy i znaki zapytania

W menu widać ślady prac, ale brak deklaracji, kiedy funkcje trafią do wszystkich. Możliwy jest skoordynowany debiut obok kolejnego modelu rozwijanego w ramach wewnętrznego zespołu Meta określanego jako Super Intelligence Lab. To jednak scenariusz, a nie zapowiedź – firma ma historię testowania modułów, które ostatecznie nie wychodzą poza ograniczone eksperymenty.

Realnym wyzwaniem może być technika: stabilne TTS/STT w przeglądarce, wydajne sesje długiego rozumowania, a także bezpieczeństwo integracji (Connections) wymagające rygorów w zakresie prywatności i uprawnień. To wszystko spowalnia wdrożenia, ale równocześnie podnosi próg jakości, bez którego trudno dziś konkurować.

Jeśli jednak Meta uruchomi Reasoning, Research, Canvas, głos i pozostałe moduły w jednym pakiecie, webowa aplikacja Meta AI zyska spójność i zakres, którego dotąd brakowało. W połączeniu z rosnącym ruchem po starcie Vibes byłby to najpoważniejszy krok firmy w kierunku odzyskania pozycji w generatywnym AI od miesięcy.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *