LFM2 otwiera nową erę Edge AI: innowacyjne modele językowe od Liquid AI
W czerwcu 2024 roku Liquid AI zaprezentowało LFM2, drugą generację swoich Liquid Foundation Models. To posunięcie ma potencjalnie zmienić krajobraz sztucznej inteligencji na urządzeniach brzegowych, wnosząc znaczące optymalizacje wydajnościowe, które mogą uczynić zaawansowane modele AI praktycznymi w zastosowaniach codziennych.
LFM2 osiąga dwukrotnie szybsze wnioskowanie i trzykrotnie szybsze szkolenie w porównaniu do poprzednich generacji i konkurencyjnych modeli, takich jak Qwen3, szczególnie na architekturach CPU. Taka wydajność jest kluczowa dla zastosowań w czasie rzeczywistym, gdzie latencja liczona w milisekundach, odporność na działanie offline oraz suwerenność danych, są priorytetem. Modele te znajdą zastosowanie w różnorodnych urządzeniach, od smartfonów i laptopów, po samochody, roboty czy satelity, gdzie zdolność do wnioskowania w czasie rzeczywistym jest nieodzowna.
Innowacyjna architektura hybrydowa
Fundamentem LFM2 jest nowatorska, hybrydowa architektura, która łączy zalety mechanizmów konwolucyjnych i uwagi. Model wykorzystuje 16-blokową strukturę, składającą się z dziesięciu podwójnie bramkowanych, krótkiego zasięgu bloków konwolucyjnych oraz sześciu bloków uwagi grupowej (GQA). Ta konstrukcja czerpie z doświadczeń Liquid AI z Liquid Time-constant Networks (LTCs).
Kluczowym elementem architektury jest framework Linear Input-Varying (LIV), który umożliwia generowanie wag w locie, w zależności od przetwarzanych danych wejściowych. Dzięki temu konwolucje, rekurencje czy mechanizmy uwagi, działają w ujednoliconej, kontekstowej ramie. Proces wyboru architektury był wspierany przez STAR, silnik Liquid AI do automatycznego wyszukiwania architektur neuronowych, który został zmodyfikowany do oceny zdolności językowych wykraczających poza tradycyjne metryki, takie jak precyzja czy złożoność permutacji. Silnik ten wykorzystuje ponad 50 wewnętrznych ewaluacji, oceniających m.in. przywoływanie wiedzy, rozumowanie wieloetapowe, zrozumienie języków o niskich zasobach, czy wykorzystanie narzędzi.
Wydajność LFM2 w liczbach
Liquid AI udostępniło LFM2 w trzech wariantach różniących się rozmiarem: 350 milionów, 700 milionów i 1,2 miliarda parametrów. Wszystkie modele zostały wytrenowane na 10 bilionach tokenów z precyzyjnie dobranego korpusu danych, składającego się z około 75% treści angielskich, 20% treści wielojęzycznych i 5% kodu. Proces treningowy obejmował destylację wiedzy z wykorzystaniem LFM1-7B jako modelu „nauczyciela”. Dodatkowo, LFM2 charakteryzuje się rozszerzoną długością kontekstu do 32 tys. tokenów, co pozwala na efektywne przetwarzanie dłuższych sekwencji.
Testy porównawcze pokazują, że LFM2 znacząco przewyższa konkurencyjne modele o podobnej wielkości. Na przykład, model LFM2-1.2B dorównuje wydajnością Qwen3-1.7B, mimo że ma o 47% mniej parametrów. LFM2-700M outperformuje Gemma 3 1B IT, a nawet najmniejszy LFM2-350M jest konkurencyjny względem Qwen3-0.6B i Llama 3.2 1B Instruct.
Poza benchmarkami automatycznymi, LFM2 wyróżnia się w konwersacjach wieloturnusowych. W testach z wykorzystaniem zestawu danych WildChat i frameworku „LLM-as-a-Judge”, LFM2-1.2B wykazało wyraźną przewagę nad Llama 3.2 1B Instruct i Gemma 3 1B IT, jednocześnie dorównując Qwen3-1.7B, będąc przy tym znacznie mniejszym i szybszym.
Optymalizacja pod kątem wdrożeń brzegowych
Modele LFM2 są zoptymalizowane pod kątem rzeczywistych scenariuszy wdrożeniowych, wspierając takie frameworki jak ExecuTorch firmy PyTorch i open-source’ową bibliotekę llama.cpp. Testy na urządzeniach, takich jak Samsung Galaxy S24 Ultra i platformy AMD Ryzen, potwierdzają dominację LFM2 pod względem szybkości wnioskowania (zarówno prefill, jak i decode) w stosunku do rozmiaru modelu. Co ważne, wydajność na CPU przekłada się efektywnie na akceleratory GPU i NPU po optymalizacji kernela, co otwiera drogę LFM2 do szerokiego spektrum konfiguracji sprzętowych.
Wydanie LFM2 przez Liquid AI stanowi istotny krok w rozwoju sztucznej inteligencji, kierując ją od rozwiązań chmurowych, do tych działających bezpośrednio na urządzeniach. Umożliwienie milisekundowych opóźnień, pracy offline i suwerenności danych, otwiera nowe możliwości dla integracji AI w elektronice użytkowej, robotyce, inteligentnych urządzeniach, sektorze finansowym, e-commerce i edukacji. Osiągnięcia techniczne LFM2 sygnalizują dojrzałość technologii Edge AI, optymalizując kompromisy między możliwościami modelu a efektywnością jego wdrożenia.
