R & DRozumowanie

Apriel-1.5-15B-Thinker: Nowy model rozumowania AI osiąga przełomową wydajność na pojedynczym GPU

ServiceNow AI Research Lab ogłosiło premierę Apriel-1.5-15B-Thinker, 15-miliardowego modelu rozumowania multimodalnego z otwartymi wagami. Model ten został wytrenowany z wykorzystaniem skoncentrowanej na danych metody uczenia, obejmującej ciągłe wstępne trenowanie, a następnie nadzorowane dostrajanie. Co istotne, proces ten obył się bez uczenia ze wzmocnieniem lub optymalizacji preferencji.

Apriel-1.5-15B-Thinker osiąga wynik 52 w Artificial Analysis Intelligence Index (AAI), dorównując wynikom znacznie większych modeli. Model udostępniony jest na licencji MIT na platformie Hugging Face.

Kluczowe cechy i zalety

Przełomowy wynik kompozytowy w skali small scale. Apriel-1.5-15B-Thinker osiąga wynik AAI równy 52, co odpowiada wynikom DeepSeek-R1-0528, mimo że jest znacznie mniejszy. AAI agreguje 10 niezależnych ewaluacji (MMLU-Pro, GPQA Diamond, Humanity’s Last Exam, LiveCodeBench, SciCode, AIME 2025, IFBench, AA-LCR, Terminal-Bench Hard, τ²-Bench Telecom).

Możliwość wdrażania na pojedynczym GPU. Model może być uruchamiany na pojedynczej karcie graficznej, co czyni go idealnym rozwiązaniem dla wdrożeń lokalnych. Otwarty dostęp do wag modelu umożliwia niezależną weryfikację, powtarzalność eksperymentów i dalszy rozwój.

Mechanizm treningowy

Apriel-1.5-15B-Thinker bazuje na architekturze Mistral Pixtral-12B-Base-2409. Zespół badawczy zastosował upscaling głębokości, zwiększając liczbę warstw dekodera z 40 do 48, a następnie dostosował sieć projekcji, aby dopasować koder wizyjny do powiększonego dekodera. Takie podejście pozwoliło uniknąć kosztownego trenowania od zera, zachowując jednocześnie możliwość wdrażania na pojedynczym GPU.

Proces CPT (Continual Pretraining) składał się z dwóch etapów: mieszania danych tekstowych i obrazowych w celu budowania podstaw rozumowania i rozumienia dokumentów/diagramów, oraz ukierunkowanych syntetycznych zadań wizualnych (rekonstrukcja, dopasowywanie, wykrywanie, zliczanie) w celu wzmocnienia rozumowania przestrzennego i kompozycyjnego. Długość sekwencji została wydłużona odpowiednio do 32k i 16k tokenów.

Wyniki i wydajność

Apriel-1.5-15B-Thinker osiąga obiecujące wyniki w kluczowych testach porównawczych: AIME 2025 (87.5–88%), GPQA Diamond (około 71%), IFBench (około 62%) i τ²-Bench Telecom (około 68%). Używając VLMEvalKit dla zapewnienia powtarzalności, Apriel osiąga konkurencyjne wyniki w MMMU / MMMU-Pro, LogicVista, MathVision, MathVista, MathVerse, MMStar, CharXiv, AI2D, BLINK, z lepszymi wynikami w zadaniach związanych z dokumentami/diagramami i matematycznymi obrazami z przewagą tekstu.

Apriel-1.5-15B-Thinker udowadnia, że staranne trenowanie może zapewnić wysoką wydajność w AAI, przy jednoczesnym zachowaniu możliwości wdrażania na pojedynczej karcie graficznej.

Dodaj komentarz

Twój adres e-mail nie zostanie opublikowany. Wymagane pola są oznaczone *