BiznesGen AI

GLM-4.5 od Zhipu AI: chiński model open-source goni zachodnią konkurencję

Zhipu AI, chiński gigant w dziedzinie sztucznej inteligencji, wprowadził na rynek GLM-4.5 i GLM-4.5V, nową generację otwartych modeli językowych. Mają one na celu dorównanie, a być może i przewyższenie, możliwości zachodnich rozwiązań, szczególnie w obszarach takich jak rozumowanie logiczne, programowanie i zadania oparte na agentach.

Firma prezentuje praktyczne zastosowania modeli, w tym generowanie interaktywnych mini-gier i symulacji fizycznych, tworzenie prezentacji ze zautomatyzowanym wyszukiwaniem w sieci oraz rozwój kompletnych aplikacji internetowych z zintegrowanym frontendem i backendem. Przykładem jest działająca demonstracja gry Flappy Bird, stworzona za pomocą jednego polecenia w HTML. Multimodalna wersja GLM-4.5V oferuje dodatkowo analizę obrazów i wideo, rekonstrukcję stron internetowych na podstawie zrzutów ekranu oraz operacje na ekranie dla autonomicznych agentów.

Użytkownicy mogą bezpłatnie testować te funkcje w interfejsie przypominającym ChatGPT na platformie chat.z.ai. Linia GLM-4.5 obejmuje trzy modele: standardowy GLM-4.5, lżejszy GLM-4.5-Air oraz multimodalny GLM-4.5V. Każdy model oferuje dwa tryby pracy: „think mode” dla złożonego rozumowania i „quick response mode” dla szybszych odpowiedzi.

Zhipu AI twierdzi, że GLM-4.5V osiąga najlepsze wyniki wśród otwartych modeli o podobnej wielkości. W testach obejmujących dwanaście benchmarków GLM-4.5 zajął trzecie miejsce ogółem i drugie miejsce w zadaniach autonomicznych. Uzyskał 70,1% w zadaniach agentowych TAU-Bench, 91,0% w zadaniach matematycznych AIME 24 oraz 64,2% w zadaniach inżynierii oprogramowania SWE-Bench Verified.

Efektywność parametrów jest szczególnie imponująca. GLM-4.5 wykorzystuje o połowę mniej parametrów niż Deepseek-R1 i o jedną trzecią mniej niż Kimi K2, a mimo to dorównuje lub przewyższa ich wydajność. W nawigacji internetowej GLM-4.5 osiąga 26,4% w BrowseComp, przewyższając nawet znacznie większy Claude Opus 4 z wynikiem 18,8%.

GLM-4.5 wykorzystuje architekturę mixture-of-experts z łącznie 355 miliardami parametrów, z czego 32 miliardy są aktywne w danym momencie. Kompaktowy GLM-4.5-Air posiada 106 miliardów parametrów, z czego 12 miliardów jest aktywnych. GLM-4.5V bazuje na wersji Air.

W przeciwieństwie do modeli takich jak Deepseek-V3 i Kimi K2, Zhipu AI preferuje głębsze sieci z większą liczbą warstw, a nie szersze z większą liczbą parametrów na warstwę. Z badań wynika, że zwiększenie głębokości poprawia zdolności rozumowania. Trening obejmował około 23 bilionów tokenów w kilku fazach, począwszy od danych ogólnych, a następnie specjalistycznych zadań związanych z kodem i rozumowaniem.

Wszystkie modele są dostępne za pośrednictwem platformy Z.ai z punktami końcowymi API kompatybilnymi z OpenAI. Kod jest otwarty na Githubie, a wagi modelu można pobrać z Hugging Face i Modelscope firmy Alibaba. Zhipu AI zwrócił na siebie uwagę w 2022 roku, kiedy model GLM-130B przewyższył ofertę Google i OpenAI.

Firma, założona w 2019 roku przez profesorów z Uniwersytetu Tsinghua i z siedzibą w Pekinie, zatrudnia obecnie ponad 800 osób, z których większość pracuje w badaniach i rozwoju. Główni inwestorzy to chińscy giganci technologiczni, tacy jak Alibaba, Tencent i Xiaomi, oraz kilka państwowych funduszy majątkowych. Dołączyli również międzynarodowi inwestorzy, tacy jak Prosperity7 Ventures Saudi Aramco, a wartość firmy szacuje się obecnie na ponad 5 miliardów dolarów. Podobnie jak Deepseek, Zhipu AI jest znany z silnego zespołu akademickiego i niezależnych badań i obecnie przygotowuje się do IPO.

Podobnie jak inne chińskie modele AI, GLM-4.5 podlega rządowej cenzurze, co odzwierciedla priorytety i ideologię chińskiej administracji. Modele te mogą stać się narzędziem propagandy państwowej. Podobne tendencje, choć motywowane innymi wartościami politycznymi, można zaobserwować w Stanach Zjednoczonych, gdzie również rozważa się wprowadzenie ograniczeń na modele AI.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *