LLM

Zhipu AI prezentuje GLM-4.6: Nowy model z ulepszeniami w kodowaniu, długim kontekście i rozumowaniu

Zhipu AI, wschodzący gracz na rynku sztucznej inteligencji, zaprezentował GLM-4.6, znaczącą aktualizację swojej serii GLM. Nowy model ma na celu usprawnienie tworzenia agentów AI, rozumowania w oparciu o długi kontekst i praktycznych zadań związanych z kodowaniem.

GLM-4.6 rozszerza okno kontekstowe do 200 tysięcy tokenów z maksymalną długością wyjściową 128 tysięcy. Co więcej, twórcy obiecują niższe zużycie tokenów w zadaniach aplikacyjnych. Dostępne są również otwarte wagi modelu, co umożliwia jego wdrażanie lokalnie.

Kluczowe ulepszenia w GLM-4.6

Najnowsza wersja charakteryzuje się przede wszystkim:

  • Rozszerzonym kontekstem i limitami wyjściowymi: Model obsługuje 200 tysięcy tokenów wejściowych i 128 tysięcy tokenów wyjściowych.
  • Lepszym kodowaniem: W testach na rozszerzonym CC-Bench, GLM-4.6 osiągnął wyniki zbliżone do Claude Sonnet 4 (48,6% wskaźnik wygranych) zużywając przy tym o 15% mniej tokenów niż GLM-4.5.
  • Dostępnością: Model jest dostępny poprzez Z.ai API i OpenRouter oraz integruje się z popularnymi agentami kodowania.
  • Otwartymi wagami: Model udostępnia wagi z licencją MIT i konfiguracją 355B parametrów (MoE).

Porównanie z konkurencją

Zhipu AI twierdzi, że GLM-4.6 oferuje „wyraźne korzyści” w porównaniu z GLM-4.5 w ośmiu publicznych testach porównawczych. Firma deklaruje również, że model dorównuje Claude Sonnet 4/4.6 w kilku aspektach, jednocześnie przyznając, że GLM-4.6 nadal ustępuje Sonnet 4.5 w kodowaniu. To uczciwe zastrzeżenie ułatwia wybór modelu odpowiedniego do konkretnych zastosowań.

Dostępność i wdrożenie

GLM-4.6 jest dostępny za pośrednictwem Z.ai API i OpenRouter. Model można zintegrować z popularnymi agentami kodowania, a obecni użytkownicy Coding Plan mogą dokonać aktualizacji, zmieniając nazwę modelu na glm-4.6.

Dla tych, którzy preferują lokalne wdrożenia, Zhipu AI udostępnia wagi modelu na Hugging Face i ModelScope. Obsługiwane są również vLLM i SGLang, co ułatwia lokalne uruchomienie modelu. Społeczność AI pracuje także nad kwantyzacją modelu, aby umożliwić jego działanie na sprzęcie klasy workstation.

Podsumowanie

GLM-4.6 stanowi istotny krok naprzód w rozwoju modeli językowych. Oferuje rozszerzone okno kontekstowe (200K), redukcję tokenów o około 15% w CC-Bench w porównaniu z GLM-4.5, zbliżony wskaźnik wygranych zadań do Claude Sonnet 4 i natychmiastową dostępność poprzez Z.ai, OpenRouter i otwarte wagi do lokalnego wdrożenia. To solidna propozycja dla każdego, kto szuka wszechstronnego i wydajnego modelu językowego.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *