Agenci AI

Agentowa rewolucja w przedsiębiorstwach: Czy AI zmienia zasady gry szybciej, niż się spodziewano?

Dyskusja o ogólnej sztucznej inteligencji (AGI) zdominowała nagłówki mediów technologicznych, napędzane przez gigantów takich jak OpenAI czy Meta. Jednak z praktycznego punktu widzenia, dla liderów biznesu na całym świecie, prawdziwe zmiany zachodzą w obszarze konkretnych zastosowań i mierzalnych rezultatów. Na niedawnym szczycie VentureBeat Transform 2025 w San Francisco wyłonił się jasny obraz: era rzeczywistego, operacyjnie wdrożonego AI agentowego nadeszła i przyspiesza, radykalnie przekształcając sposób funkcjonowania firm.

Agentowe systemy AI wkraczają do produkcji szybciej, niż zakładano

Firmy takie jak Intuit, Capital One, LinkedIn, Uniwersytet Stanforda czy Highmark Health cicho, lecz skutecznie, wdrażają agentów AI do codziennej produkcji. Zajmują się nimi konkretnymi problemami i odnotowują wymierne zwroty z inwestycji. Najnowsze dane wskazują na błyskawiczne tempo adaptacji. Sondaż VentureBeat przeprowadzony przed konferencją ujawnił, że 68% firm zatrudniających ponad 1000 pracowników już przyjęło agentową AI — liczba ta wydawała się wówczas wysoka.

Potwierdza to jednak badanie KPMG opublikowane dzień po Transform 2025, które wskazuje, że 33% organizacji aktywnie wdraża obecnie agentów AI, co stanowi trzykrotny wzrost w porównaniu z zaledwie 11% w poprzednich dwóch kwartałach. To przyspieszenie napędzają namacalne wyniki. Ashan Willy, CEO New Relic, zauważył 30-procentowy kwartalny wzrost w monitorowaniu aplikacji AI przez klientów, głównie ze względu na ich ruch w kierunku adopcji agentów.

Nawet osoby niebędące programistami odczuwają tę zmianę. Scott White, lider produktu Claude AI w Anthropic, opowiada, jak mimo braku wykształcenia programistycznego, tworzy teraz gotowe do produkcji funkcje oprogramowania. „To nie było możliwe sześć miesięcy temu” – tłumaczy, podkreślając potencjał narzędzi takich jak Claude Code. Podobnie Olivier Godement z OpenAI szczegółowo opisał, jak klienci tacy jak Stripe i Box wykorzystują ich zestaw SDK do budowy systemów wieloagentowych.

Wojna hiperskalatorów i dominacja strategii multi-cloud, multi-model

Czasy stawiania wszystkiego na jednego dostawcę dużych modeli językowych (LLM) dobiegły końca. Konferencja Transform 2025 wyraźnie pokazała trend w kierunku strategii multi-model i multi-cloud. Przedsiębiorstwa pragną elastyczności wyboru najlepszego narzędzia do konkretnego zadania, niezależnie od tego, czy jest to potężny model własnościowy, czy dostrojona alternatywa open-source.

Armand Ruiz, wiceprezes ds. platformy AI w IBM, wyjaśnił, że rozwój bramki modelowej firmy, która kieruje aplikacje do najbardziej efektywnego LLM w danym przypadku, był bezpośrednią odpowiedzią na zapotrzebowanie klientów. Początkowo IBM oferował klientom korporacyjnym własne modele open-source, następnie dodał wsparcie dla innych rozwiązań otwartych, aż w końcu zdał sobie sprawę, że musi obsługiwać wszystkie modele. Podobnie XD Huang, CTO Zoom, opisał trójstopniowe podejście swojej firmy: wspieranie modeli własnościowych, oferowanie własnego dostrojonego modelu oraz umożliwianie klientom tworzenia ich własnych dostrojonych wersji.

Ten trend tworzy silny, choć ograniczony ekosystem, gdzie procesory graficzne (GPU) i moc potrzebna do generowania tokenów są w ograniczonej podaży. Firmy stają się coraz bardziej świadome tego, jak wykorzystywać różne modele do różnych zadań, aby zoptymalizować zarówno koszty, jak i wydajność. Coraz częściej oznacza to odejście od polegania wyłącznie na układach Nvidia na rzecz znacznie bardziej spersonalizowanych rozwiązań, jak choćby niestandardowe rozwiązania pamięci i przechowywania danych dla AI.

Przedsiębiorstwa skupione na rozwiązywaniu realnych problemów, nie na doganianiu AGI

Podczas gdy wizjonerzy technologii, tacy jak Elon Musk, Mark Zuckerberg czy Sam Altman, rozmawiają o nadejściu superinteligencji, praktycy biznesu zakasują rękawy i rozwiązują bieżące wyzwania. Rozmowy na Transform 2025 były realistyczne i pragmatyczne. Przykładem jest Highmark Health, trzeci co do wielkości zintegrowany ubezpieczyciel zdrowotny w USA. Dyrektor ds. danych, Richard Clarke, powiedział, że firma używa LLM do praktycznych zastosowań, takich jak komunikacja wielojęzyczna, aby lepiej służyć zróżnicowanej bazie klientów, oraz do usprawniania procesów roszczeń medycznych. Innymi słowy, chodzi o wykorzystanie technologii do dostarczania lepszych usług tu i teraz.

Podobnie Capital One buduje zespoły agentów, które odzwierciedlają funkcje firmy, z wyspecjalizowanymi agentami do zadań takich jak ocena ryzyka i audytowanie, w tym pomoc klientom dealerów samochodowych w uzyskiwaniu odpowiednich pożyczek. Sektor turystyczny również przechodzi pragmatyczną zmianę. Dyrektorzy techniczni z Expedia i Kayak omawiali, jak dostosowują się do nowych paradygmatów wyszukiwania, umożliwionych przez LLM. Użytkownicy mogą teraz wyszukiwać hotel z „basenem bez krawędzi” w ChatGPT, a platformy turystyczne muszą włączyć ten poziom naturalnego języka do swoich systemów, aby pozostać konkurencyjnymi. Nacisk kładzie się na klienta, a nie na technologię dla niej samej.

Przyszłość zespołów AI: małe, zwinne i umocowane

Era agentów AI zmienia również strukturę zespołów. Konsensus jest taki, że najbardziej efektywne są małe, zwinne „grupy” trzech do czterech inżynierów. Varun Mohan, CEO Windsurf, rozwijającego się agentowego IDE, rozpoczął wydarzenie, argumentując, że ta mała struktura zespołu pozwala na szybkie testowanie hipotez produktowych i unikanie spowolnień, które dotykają większe grupy. Ta zmiana oznacza, że „każdy jest twórcą”, a coraz częściej „każdy jest menedżerem” agentów AI. Jak zauważyli przedstawiciele GitHub i Atlassian, inżynierowie uczą się teraz zarządzać całymi flotami agentów.

Wymagane umiejętności ewoluują, kładąc większy nacisk na jasną komunikację i strategiczne myślenie, aby kierować tymi autonomicznymi systemami. Tę zwinność wspiera rosnąca akceptacja dla rozwoju w środowiskach typu sandbox. Andrew Ng, czołowy głos w AI, doradził uczestnikom, aby kwestie bezpieczeństwa, zarządzania i obserwowalności pozostawić na koniec cyklu rozwoju. Choć może to wydawać się sprzeczne z intuicją dla dużych przedsiębiorstw, chodzi o wspieranie szybkiej innowacji w kontrolowanym środowisku, aby szybko udowodnić wartość.

Te spostrzeżenia razem malują jasny obraz krajobrazu AI w przedsiębiorstwach, który szybko dojrzewa, przechodząc od szerokiego eksperymentowania do skoncentrowanego, zorientowanego na wartość działania. Rozmowy na Transform 2025 pokazały, że firmy wdrażają agentów AI już dziś, nawet jeśli musiały po drodze wyciągnąć trudne wnioski. Wiele z nich przeszło już jedną lub dwie duże zmiany kursu, od kiedy zaczęły eksperymentować z generatywną AI rok czy dwa lata temu. Wczesne rozpoczęcie działań wydaje się więc rozsądne.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *