Liquid AI 20 января выкатила модель с рассуждениями, которая целиком работает на устройстве. LFM2.5-1.2B-Thinking сначала генерирует внутреннюю цепочку рассуждений, а потом отвечает. Тот же подход, что у больших моделей, но запихнутый в 1,2 миллиарда параметров.
По сравнению с базовой версией без рассуждений прирост заметный. На MATH-500 математика подскочила с 63 до 88 баллов, следование инструкциям на Multi-IF выросло с 61 до 69, работа с инструментами на BFCLv3 улучшилась с 49 до 57. Это собственные бенчмарки компании, хотя они утверждают, что методология соответствует ArtificialAnalysis.
Liquid заявляет, что модель догоняет или обходит Qwen3-1.7B на большинстве задач с рассуждениями, при этом параметров на 40% меньше. С точки зрения эффективности это интересно: меньше выходных токенов при сравнимых результатах, а для работы от батарейки это важно.
К запуску подключились Qualcomm, Ollama, FastFlowLM и Cactus Compute, которые дополнили уже имеющихся партнёров AMD и Nexa AI. Компания отчитывается о 239 токенах в секунду на декодировании для AMD CPU и 82 токенах в секунду на мобильном NPU. Потребление памяти остаётся ниже гигабайта.
Веса уже доступны на Hugging Face, LEAP и в песочнице Liquid. В техническом отчёте описан рецепт обучения с curriculum RL и итеративным слиянием 25 чекпоинтов.
Суть: модель с рассуждениями меньше гигабайта, работающая офлайн на телефонах, с результатами бенчмарков, которые давят на более крупных конкурентов.
КРАТКИЕ ФАКТЫ
- Размер модели: 1,2 млрд параметров, меньше 900 МБ памяти
- Результат MATH-500: 88 (по данным компании)
- Скорость инференса: 239 токенов/с на декодировании для AMD CPU, 82 токена/с на мобильном NPU
- Партнёры по запуску: Qualcomm, AMD, Nexa AI, Ollama, FastFlowLM, Cactus Compute
- Лицензия: открытые веса




