Agenci AI

Google stawia na autonomię: Deep Research i Deep Research Max zmieniają zasady gry w analizie danych

Rynek asystentów AI wchodzi w fazę dojrzałości, w której od prostego generowania tekstu przechodzimy do pełnej automatyzacji procesów badawczych. Google ogłosiło właśnie publiczny podgląd dwóch nowych narzędzi: Deep Research oraz Deep Research Max. Oba agenty, zbudowane na fundamencie modelu Gemini 1.5 Pro, mają za zadanie odciążyć analityków od żmudnego przeszukiwania źródeł, oferując gotowe raporty oparte na zweryfikowanych danych.

Prędkość czy precyzja: dwie ścieżki automatyzacji

Strategia Google opiera się na dualizmie potrzeb. Standardowy agent Deep Research to ewolucja wersji testowej z grudnia – został zoptymalizowany pod kątem niskich opóźnień i redukcji kosztów. Jest to rozwiązanie idealne dla interfejsów czatowych, gdzie liczy się interakcja w czasie rzeczywistym i szybkie dostarczenie konkretnych faktów.

Zupełnie inną filozofię reprezentuje wariant Max. Tutaj priorytetem jest głębia analizy („test-time compute”), co w praktyce oznacza, że model poświęca więcej zasobów na rozumowanie, weryfikację błędów i iteracyjne ulepszanie końcowego raportu. To narzędzie zaprojektowane do pracy asynchronicznej – przykładowo, może ono pracować całą noc nad kompleksowym raportem due diligence, który rano czeka na biurku analityka. Według zapewnień Google, wersja Max wykazuje znaczący progres w wychwytywaniu niuansów, które umykały wcześniejszym iteracjom modelu.

Wojna na benchmarki i brak transparentności

Jak to zwykle bywa przy premierach Big Techu, Google chwali się wynikami, które stawiają ich produkt ponad konkurencją od OpenAI czy Anthropic. Warto jednak zachować pewną dozę krytycyzmu. Analiza danych porównawczych wskazuje na pewne nieścisłości metodologiczne. Porównując się z OpenAI, Google pominęło najmocniejszy model konkurencji – GPT-4o Pro (tu błędnie sygnowany w źródłach jako 5.4), który w testach agentic search osiąga wyniki wyższe niż zaprezentowane przez giganta z Mountain View.

Podobnie sytuacja wygląda z modelem Opus od Anthropic. Zewnętrzne testy sugerują, że konkurencyjne modele radzą sobie lepiej przy wyłączonych funkcjach zaawansowanego rozumowania, co stawia pod znakiem zapytania rzetelność porównań opartych na specyficznych ustawieniach API. Różnice te wynikają najpewniej z tego, czy dany model testowano jako „surowe” API, czy wewnątrz dedykowanego środowiska narzędziowego.

Przełom w integracji danych dzięki MCP

Najistotniejszą nowością z technicznego punktu widzenia jest wsparcie dla Model Context Protocol (MCP). Pozwala on programistom na „wpięcie” agenta bezpośrednio do własnych, zamkniętych źródeł danych – od wewnętrznych baz SQL po specjalistyczne terminale finansowe. Dzięki temu Deep Research przestaje być tylko inteligentniejszą wyszukiwarką internetową, a staje się suwerennym agentem zdolnym do korelacji danych publicznych z poufnymi informacjami firmowymi.

Nowe funkcje obejmują również generowanie natywnych wykresów i infografik bezpośrednio w raportach, co eliminuje konieczność ręcznego tworzenia wizualizacji. Użytkownicy otrzymali także możliwość współdzielenia planu pracy z AI – można przejrzeć i zmodyfikować strategię wyszukiwania agenta, zanim ten przystąpi do działania. Całość wspiera formaty multimodalne, od klasycznych PDF-ów i CSV po pliki audio i wideo, co czyni z Gemini Deep Research jedno z najbardziej wszechstronnych narzędzi analitycznych dostępnych obecnie na rynku.