LLM

Mistral Small 4: Europejski czempion efektywności stawia na rzadką architekturę

Francuska strategia precyzji: 128 ekspertów pod maską

Mistral AI konsekwentnie buduje swoją tożsamość jako dostawca rozwiązań, które priorytetyzują inżynieryjną elegancję nad surową siłą obliczeniową. Mistral Small 4, najnowsze dziecko paryskiego zespołu, to model multimodalny o łącznej liczbie 119 miliardów parametrów. Jednak klucz do jego wydajności tkwi w unikalnej strukturze MoE (Mixture-of-Experts), składającej się z aż 128 modułów eksperckich. Podczas generowania odpowiedzi system aktywuje zaledwie cztery z nich, co oznacza, że na każde zapytanie pracuje efektywnie tylko 6 miliardów parametrów.

Ta rzadka architektura pozwala modelowi na osiągnięcie niespotykanej wcześniej przepustowości. Według oficjalnych danych Small 4 przetwarza trzy razy więcej zapytań na sekundę niż jego poprzednik, będąc przy tym o 40 procent szybszym. Co istotne z punktu widzenia deweloperów, szybkość nie odbywa się kosztem intelektu. Użytkownicy otrzymali narzędzia umożliwiające płynną regulację między błyskawiczną odpowiedzią a pogłębionym procesem rozumowania.

Wydajność flagowców w otwartej licencji

Mimo określenia 'Small’ możliwości modelu wykraczają poza segment rozwiązań budżetowych. W wewnętrznych benchmarkach Small 4, pracując w trybie wysokiego rozumowania, dorównuje lub przewyższa wyniki specjalistycznej linii Magistral. Model radzi sobie nie tylko z tekstem i logiką, ale również z przetwarzaniem obrazów, co wpisuje się w trend multimodalności zapoczątkowany przez grudniową premierę serii Mistral 3.

Strategiczne partnerstwo z Nvidią i dołączenie do koalicji Nemotron podkreślają ambicje Mistrala w budowaniu otwartego ekosystemu AI. Udostępnienie modelu na licencji Apache 2.0 to jasny sygnał dla rynku, że europejski startup chce stanowić realną, transparentną alternatywę dla zamkniętych ekosystemów gigantów z Doliny Krzemowej. Mistral Small 4 jest już dostępny na platformach Hugging Face, Nvidia oraz poprzez natywne API producenta.