Google wprowadza zarządzane serwery MCP dla agentów AI, otwierając dostęp do usług chmurowych
Google zaimplementowało strategiczną zmianę w podejściu do rozwoju agentów AI, wprowadzając globalnie w pełni zarządzane serwery Model Context Protocol (MCP). Rozwiązanie to ma na celu zastąpienie dotychczasowych, często tworzonych przez społeczność i lokalnie instalowanych serwerów, oferując ujednolicony i korporacyjny punkt dostępowy dla agentów sztucznej inteligencji działających w Google i Google Cloud.
Debiut, który nastąpił 10 grudnia 2025 roku, otwiera drogę do bezpośredniego wykorzystania interfejsów API Google za pośrednictwem protokołu MCP. Deweloperzy uzyskują w ten sposób spójny interfejs zdalny dla szerokiego wachlarza narzędzi i danych. W początkowej fazie serwery wspierają dostęp do usług takich jak Google Maps, BigQuery, Compute Engine oraz Kubernetes Engine. Rozwiązanie to zostało zaprojektowane z myślą o twórcach agentów AI zorientowanych na cel, którzy wymagają ustrukturyzowanego dostępu do systemów operacyjnych. Dostępność jest globalna, realizowana poprzez standardowych klientów MCP, np. Gemini CLI i AI Studio.
Nowe możliwości integracji i zastosowań
Serwer Mapy zapewnia agentom dostęp do danych Grounding Lite, co umożliwia im precyzyjne odpowiadanie na zapytania dotyczące lokalizacji, tras i pogody, bazując na Google Maps Platform. W przypadku BigQuery, agenci mogą odczytywać schematy i bezpośrednio wykonywać zapytania na dużych zbiorach danych przedsiębiorstw, eliminując potrzebę przenoszenia danych do promptów.
Integracja z Compute Engine i Kubernetes Engine znacząco usprawnia automatyzację. Compute Engine udostępnia przez MCP zadania związane z provisioningiem i skalowaniem zasobów infrastrukturalnych, natomiast GKE oferuje ustrukturyzowany dostęp do zasobów Kubernetes. To ostatnie jest kluczowe, ponieważ zastępuje kruche parsowanie tekstu niezawodnym interfejsem API, optymalnym dla autonomicznych lub nadzorowanych operacji.
Rozszerzalność i bezpieczeństwo w ekosystemie przedsiębiorstwa
Google planuje rozszerzyć tę funkcjonalność na szerszy stos technologiczny przedsiębiorstw poprzez Apigee. Organizacje będą miały możliwość publikowania własnych interfejsów API, a także API stron trzecich, jako wykrywalnych narzędzi MCP. Umożliwi to integrację agentów z niestandardową logiką biznesową i zarządzanymi przepływami danych. Odkrywanie i zarządzanie tymi zasobami będzie oparte na Cloud API Registry i Apigee API Hub, z kontrolą dostępu realizowaną przez Cloud IAM i monitorowaniem za pomocą dzienników audytu Cloud. Dodatkowo, system Model Armor zapewni ochronę przed specyficznymi zagrożeniami związanymi z agentami AI.
Zarządzana warstwa MCP wspiera korporacyjne przypadki użycia, gdzie agenci łączą zdolności rozumowania modelu Gemini 3 z operacyjnym dostępem do danych. Przykładem może być agent analizujący lokalizacje handlowe, który prognozuje przychody za pomocą BigQuery i weryfikuje dane biznesowe oraz trasy za pośrednictwem Google Maps.
Google zapowiada dalsze rozszerzanie wsparcia MCP o takie usługi jak Cloud Run, Cloud Storage, Cloud Resource Manager, AlloyDB, Cloud SQL, Spanner, Looker, Pub/Sub, Dataplex, SecOps, Cloud Logging, Cloud Monitoring, Developer Knowledge API, Android Management API i wiele innych. Firma pozycjonuje wsparcie MCP jako fundamentalny element dla obciążeń agentowych i ściśle wiąże go ze swoją rolą w Agentic AI Foundation. Podkreśla, że rozwój tego ekosystemu idzie w parze z postępami w możliwościach modeli, aby umożliwić tworzenie agentów zdolnych do wnioskowania na podstawie danych i podejmowania działań w usługach chmurowych i innych usługach Google.
