Aktualizacja Model Context Protocol – przełom w bezpieczeństwie i skalowalności AI dla przedsiębiorstw
W ciągu ostatniego roku Model Context Protocol (MCP), rozwiązanie open source zainicjowane przez Anthropic, ewoluowało od akademickiej ciekawostki do kluczowego elementu infrastruktury AI, umożliwiając bezpieczne i efektywne połączenie sztucznej inteligencji ze złożonymi systemami korporacyjnymi. Najnowsza rewizja specyfikacji, ogłoszona w tym tygodniu, ma na celu sprostać wyzwaniom, które dotychczas blokowały szerokie wdrożenia agentów generatywnej AI.
Od pilotażu do wdrożeń produkcyjnych
Rynek coraz wyraźniej odchodzi od kruchej, szytej na miarę integracji na rzecz standaryzowanych rozwiązań. Dla przedsiębiorstw jest to szansa na implementację agentów AI, które mogą bezpiecznie odczytywać i zapisywać dane w firmowych repozytoriach, unikając jednocześnie narastającego długu technologicznego. Ta zmiana paradygmatu, jak zauważa Satyajith Mundakkal, Globalny CTO w Hexaware, przenosi MCP z roli „ciekawostki deweloperskiej” do praktycznego narzędzia integracji AI z danymi i systemami przedsiębiorstw. Świadczy o tym ekspansja rejestru MCP o 407% od września, obejmującego obecnie blisko dwa tysiące serwerów.
Microsoft już zasygnalizował ten trend, dodając natywne wsparcie dla MCP do systemu Windows 11, co oznacza, że standard ten staje się integralną częścią systemu operacyjnego. Ta standaryzacja oprogramowania idzie w parze z agresywnym rozwojem infrastruktury sprzętowej, czego przykładem jest program „Stargate”. Jak podkreśla Mundakkal, to wyraźny sygnał, że możliwości AI i dane, od których zależą, rosną w zawrotnym tempie. MCP pełni w tym kontekście rolę kluczowego „łącznika”, który dostarcza dane do tych ogromnych zasobów obliczeniowych, z zasadniczą uwagą na bezpieczeństwo dostępu do danych.
Nowe funkcjonalności zwiększające odporność i bezpieczeństwo
Dotychczas integracja dużych modeli językowych (LLM) z bazami danych odbywała się głównie synchronicznie, co było wystarczające dla prostych zastosowań, ale nie sprawdzało się w przypadku migracji kodu czy analizy danych medycznych. Nowa funkcja „Tasks” (SEP-1686) zmienia ten stan rzeczy, umożliwiając serwerom standardowe śledzenie zadań i zarządzanie nimi, włączając w to sprawdzanie statusu czy anulowanie operacji. Zapewnia to odporność na błędy i elastyczność niezbędną dla agentów wykonujących zadania wymagające długotrwałego działania, takie jak automatyzacja migracji infrastruktury.
Dla dyrektorów ds. bezpieczeństwa informacji (CISO) agenci AI często jawili się jako niekontrolowana i rozległa powierzchnia ataku. Ryzyka te są już widoczne – badacze bezpieczeństwa odnotowali obecność około 1800 serwerów MCP eksponowanych publicznie w internecie do połowy 2025 roku, co sugeruje jeszcze szerszą adopcję w prywatnej infrastrukturze. Bez odpowiednich zabezpieczeń MCP może prowadzić do nadmiernej złożoności integracji i zwiększonej powierzchni ataku, czego przestrzega Mundakkal.
Aby sprostać tym wyzwaniom, twórcy protokołu wprowadzili udoskonalenia w Dynamicznej Rejestracji Klientów (DCR). Rozwiązaniem jest rejestracja klientów oparta na adresach URL (SEP-991), gdzie klienci dostarczają unikalny identyfikator wskazujący na samodzielnie zarządzany dokument metadanych, co eliminuje wąskie gardła administracyjne.
Kolejnym usprawnieniem jest „URL Mode Elicitation” (SEP-1036), która umożliwia serwerowi, na przykład obsługującemu płatności, przekierowanie użytkownika do bezpiecznego okna przeglądarki w celu wprowadzenia danych uwierzytelniających. W ten sposób agent nigdy nie ma bezpośredniego dostępu do hasła, otrzymując jedynie token, co jest kluczowe dla zachowania zgodności z PCI i spełnienia wymogów bezpieczeństwa. Harish Peri, wiceprezes w Okta, jest zdania, że to rozwiązanie zapewnia niezbędny nadzór i kontrolę dostępu, tworząc bezpieczny i otwarty ekosystem AI.
Mniej uwagi poświęcono funkcji „Sampling with Tools” (SEP-1577), która zmienia serwery z pasywnych obiektów zbierających dane w aktywne podmioty, zdolne do wykonywania własnych pętli logicznych przy użyciu tokenów klienta. Pozwala to na przykład serwerowi badawczemu na generowanie podagentów do przeszukiwania dokumentów i syntetyzowania raportów, przenosząc logikę bliżej danych, bez konieczności pisania niestandardowego kodu klienta.
Wyzwania widoczności i monitoringu
Chociaż podłączenie tych połączeń jest krokiem w dobrym kierunku, kluczowym wyzwaniem jest zapewnienie widoczności. Mayur Upadhyaya, CEO w APIContext, podkreśla, że „pierwszy rok adopcji MCP pokazał, że korporacyjna AI nie zaczyna się od przepisywania kodu, a od ekspozycji”. Jednak po tym etapie pojawia się potrzeba monitorowania. Upadhyaya przewiduje, że „kolejna fala będzie dotyczyć widoczności: przedsiębiorstwa będą musiały monitorować czas działania MCP i walidować przepływy uwierzytelniania tak rygorystycznie, jak dzisiaj monitorują interfejsy API”.
Plan rozwoju MCP odzwierciedla te potrzeby, koncentrując się na poprawie „niezawodności i obserwowalności” w celu ułatwienia debugowania. Traktowanie serwerów MCP jako rozwiązania typu „ustaw i zapomnij” jest proszeniem się o kłopoty. Mundakkal zgadza się z tym, podkreślając, że lekcja z pierwszego roku to konieczność połączenia MCP z „silną tożsamością, RBAC (kontrolą dostępu opartą na rolach) i obserwowalnością od samego początku”.
Standardy, które zmieniają grę
Wartość protokołu mierzy się tym, kto go używa. W ciągu roku od wydania pierwotnej specyfikacji MCP przyjęło się w niemal dwóch tysiącach serwerów. Microsoft wykorzystuje go do łączenia GitHub, Azure i M365, AWS integruje go z Bedrock, a Google Cloud wspiera go w ramach Gemini. To wszystko przyczynia się do zmniejszenia zależności od jednego dostawcy – konektor Postgres zbudowany dla MCP powinien teoretycznie działać z Gemini, ChatGPT czy wewnętrznym agentem Anthropic bez konieczności przepisywania kodu.
Faza budowania podstaw generatywnej AI wchodzi w stabilny etap, a otwarte standardy wygrywają debatę na temat łączności. Liderzy technologiczni powinni audytować wewnętrzne interfejsy API pod kątem gotowości do MCP, koncentrując się na ekspozycji, a nie na rewitalizacji, oraz weryfikować, czy nowa rejestracja oparta na adresach URL pasuje do obecnych ram zarządzania tożsamością i dostępem (IAM).
Wprowadzenie protokołów monitorowania jest natychmiastową koniecznością. Chociaż najnowsza aktualizacja specyfikacji MCP jest kompatybilna wstecz z istniejącą infrastrukturą, nowe funkcje są jedynym sposobem na wprowadzenie agentów do regulowanych, krytycznych dla misji przepływów pracy i zapewnienie bezpieczeństwa w rozwijającym się ekosystemie AI.
