Agenci AI

DeepAgents od LangChain: agenci, którzy planują, delegują i pamiętają

Agenci oparci na dużych modelach językowych potrafią już uruchamiać narzędzia, przeszukiwać sieć czy generować pliki. W praktyce często rozbijają się jednak o długie, wieloetapowe zadania: nie planują, gubią kontekst i nie potrafią wracać do rozpoczętej pracy. DeepAgents, biblioteka powiązana z ekosystemem LangChain/LangGraph, odpowiada na te ograniczenia, proponując spójną architekturę z czterema filarami: planowaniem, podagentami, dostępem do systemu plików i starannie zaprojektowanym system promptem.

Idea jest prosta: zamiast „płytkich” pętli narzędzi, agent otrzymuje mechanizmy organizacji pracy — rozbija cele na kroki, deleguje wyspecjalizowane podzadania, zapisuje stan w plikach i konsekwentnie trzyma się instrukcji operacyjnych. W efekcie ma działać jak koordynator procesu, a nie tylko rozmówca wywołujący API.

Najważniejsze możliwości

Planowanie i rozbijanie zadań. DeepAgents mają wbudowane narzędzie write_todos, dzięki któremu agent tworzy listę kroków, śledzi postępy i aktualizuje plan, kiedy pojawiają się nowe informacje. To kluczowe przy zadaniach ciągnących się w czasie.

Zarządzanie kontekstem. Zestaw prostych operacji na plikach — ls, read_file, write_file, edit_file — pozwala przenieść część pamięci poza kontekst modelu. Zamiast „pompować” wszystko do inputu LLM, agent odkłada notatki, szkice i wyniki pracy do systemu plików i w razie potrzeby do nich wraca.

Tworzenie podagentów. Wbudowane narzędzie task umożliwia powoływanie wyspecjalizowanych podagentów z własnymi narzędziami i instrukcjami. Główny agent deleguje im wycinki problemu, utrzymując porządek w kontekście i przepływie informacji.

Pamięć długoterminowa. Dzięki LangGraph Store agent może pamiętać informacje pomiędzy sesjami: wracać do wcześniejszych wątków, kontynuować przerwane zadania i akumulować wiedzę roboczą.

Przykład w praktyce: research i recenzja polityk AI

Autorzy biblioteki pokazują działanie DeepAgents na przykładzie procesu badawczego dotyczącego regulacji AI. Główny agent dostaje do ręki narzędzie wyszukiwania internetowego oparte na Tavily (internet_search), a jego workflow opisuje dedykowany system prompt. Ten prompt nakazuje: zapisać pytanie użytkownika do pliku question.txt, zlecić analizę podagentowi-badaczowi, przygotować raport w final_report.md, a następnie opcjonalnie poprosić podagenta-recenzenta o krytyczny przegląd i wprowadzić poprawki.

W tym scenariuszu działają dwa podagenci. policy-research-agent odpowiada za właściwe badania: zbiera aktualne informacje o politykach i regulacjach, porównuje podejścia regionów, cytuje źródła (np. EU AI Act czy amerykańskie rozporządzenia wykonawcze) i przygotowuje uporządkowaną notę. policy-critique-agent pełni rolę redaktora: sprawdza spójność, kompletność i ton dokumentu, weryfikuje odwołania do przepisów oraz wskazuje luki do uzupełnienia, ale nie modyfikuje raportu bezpośrednio.

Na poziomie implementacji cały proces jest jawnie sterowany przez instrukcje systemowe. To nie jest „luźna rozmowa” z modelem — agent dostaje listę kroków i standardy jakości (Markdown, sposób cytowania, neutralny styl), a następnie pracuje na plikach jak w typowym pipeline’ie redakcyjnym. Dzięki temu łatwiej go testować i utrzymywać.

Modele i integracje: elastyczność bez przywiązania

DeepAgents współpracuje z popularnymi backendami LLM obsługiwanymi przez LangChain. W przykładzie główny agent działa na modelu OpenAI gpt-4o, ale autorzy pokazują, że można równie szybko przełączyć się na Google Gemini 2.5 Flash. Jeśli model nie zostanie podany jawnie, biblioteka ma domyślnie korzystać z Claude Sonnet 4.5. Zależności instalujemy przez pip (m.in. deepagents, tavily-python, langchain-openai, langchain-google-genai), a klucze środowiskowe (np. TAVILY_API_KEY, OPENAI_API_KEY, GOOGLE_API_KEY) pozwalają aktywować konkretne dostawcy.

Warstwa narzędzi pozostaje modularna: agent może używać wyszukiwania w czasie rzeczywistym (Tavily), operować na plikach i tworzyć podagentów w locie. Wywołanie odbywa się standardowo przez interfejs invoke z kontekstem rozmowy. To znana ergonomia dla osób, które już budowały agentów w LangChain, ale ze znacznie bogatszym szkieletem działania.

Co realnie zmienia taka architektura

Największą wartością DeepAgents jest formalizacja tego, co i tak trzeba robić przy poważniejszych projektach: planowania, orkiestracji, zarządzania stanem i kontroli jakości. Zamiast ad hocowych rozwiązań, biblioteka dostarcza gotowe komponenty i wzorce pracy. Delegowanie do podagentów porządkuje kontekst i ułatwia równoległy rozwój funkcji; zapisywanie postępów do plików pozwala zatrzymać „pamięć” procesu, a jasny system prompt zamienia ogólne intencje w konkretne kroki operacyjne.

Z perspektywy zespołów developerskich oznacza to krótszą drogę od prototypu do stabilnego workflow. Agent przestaje być „czatem z narzędziami”, a staje się przewidywalnym wykonawcą procesu — z checklistą, plikami roboczymi i recenzją.

Ograniczenia i pytania otwarte

Choć biblioteka rozwiązuje realne problemy, w praktyce pojawiają się typowe wyzwania agentowe. Po pierwsze, koszt i latencja: wieloetapowe plany, wyszukiwanie w sieci i recenzje oznaczają więcej wywołań modeli. Po drugie, faktografia: nawet z krytyką podagenta redakcyjnego, agent dalej polega na zewnętrznych źródłach i własnym rozumowaniu modelu — potrzebne są czujniki jakości (walidacje, testy regresyjne, oceny offline).

Po trzecie, złożoność operacyjna: persystencja i praca na plikach wymagają decyzji o bezpieczeństwie, wersjonowaniu i dostępie. Jeśli agent ma działać ciągle, pojawia się kwestia zarządzania pamięcią długoterminową (co przechowywać, jak czyścić, jak audytować). Wreszcie, zależność od dostawców: biblioteka jest elastyczna, ale konkretne wdrożenie oprze się na wybranym API i limitach danej platformy. Warto zaplanować fallbacki, obsługę błędów i throttling.

Niewiadome techniczne, które wypada sprawdzić w projektach produkcyjnych, to m.in.: strategia retry i obsługa wyjątków w podagentach, równoległość zadań i synchronizacja, kontrola przepływu danych między plikami a kontekstem LLM oraz możliwości obserwowalności (logi, ślady, metryki skuteczności).

Wnioski

DeepAgents to nie kolejna warstwa „cukru” nad API LLM, lecz konkretny szkielet do budowy agentów wykonujących złożone, rozciągnięte w czasie prace. Planowanie, podagenci, persystencja i rygorystyczny system prompt składają się na podejście bliższe realnym procesom niż jednorazowym wywołaniom narzędzi. Ostateczna skuteczność będzie zależeć od jakości promptów, doboru modeli, dyscypliny w ocenie wyników i kosztów operacyjnych. Jeśli jednak celem jest agent, który ma coś dowieźć — nie tylko pogadać — DeepAgents daje sensowny punkt startu.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *