LLM

Liquid AI выпустила модель с рассуждениями, которая помещается в смартфон

LFM2.5-1.2B-Thinking потребляет меньше 900 МБ памяти и сразу поддерживает все основные фреймворки.

Игорь Исаев
Игорь ИсаевАвтор об ИИ
21 января 2026 г.2 мин чтения
Поделиться:
 Смартфон с паттернами нейросети на тёмно-синем фоне

Liquid AI 20 января выкатила модель с рассуждениями, которая целиком работает на устройстве. LFM2.5-1.2B-Thinking сначала генерирует внутреннюю цепочку рассуждений, а потом отвечает. Тот же подход, что у больших моделей, но запихнутый в 1,2 миллиарда параметров.

По сравнению с базовой версией без рассуждений прирост заметный. На MATH-500 математика подскочила с 63 до 88 баллов, следование инструкциям на Multi-IF выросло с 61 до 69, работа с инструментами на BFCLv3 улучшилась с 49 до 57. Это собственные бенчмарки компании, хотя они утверждают, что методология соответствует ArtificialAnalysis.

Liquid заявляет, что модель догоняет или обходит Qwen3-1.7B на большинстве задач с рассуждениями, при этом параметров на 40% меньше. С точки зрения эффективности это интересно: меньше выходных токенов при сравнимых результатах, а для работы от батарейки это важно.

К запуску подключились Qualcomm, Ollama, FastFlowLM и Cactus Compute, которые дополнили уже имеющихся партнёров AMD и Nexa AI. Компания отчитывается о 239 токенах в секунду на декодировании для AMD CPU и 82 токенах в секунду на мобильном NPU. Потребление памяти остаётся ниже гигабайта.

Веса уже доступны на Hugging Face, LEAP и в песочнице Liquid. В техническом отчёте описан рецепт обучения с curriculum RL и итеративным слиянием 25 чекпоинтов.

Суть: модель с рассуждениями меньше гигабайта, работающая офлайн на телефонах, с результатами бенчмарков, которые давят на более крупных конкурентов.


КРАТКИЕ ФАКТЫ

  • Размер модели: 1,2 млрд параметров, меньше 900 МБ памяти
  • Результат MATH-500: 88 (по данным компании)
  • Скорость инференса: 239 токенов/с на декодировании для AMD CPU, 82 токена/с на мобильном NPU
  • Партнёры по запуску: Qualcomm, AMD, Nexa AI, Ollama, FastFlowLM, Cactus Compute
  • Лицензия: открытые веса
Игорь Исаев

Игорь Исаев

Автор об ИИ

Игорь рассказывает о самых важных новостях из мира ИИ прямо сейчас. Без хайпа, только чёткий ежедневный обзор инструментов, трендов и разработок, которые в реальном времени меняют целые отрасли. Он делает сложное понятным и привычным.

Похожие статьи

Будьте впереди в мире ИИ

Получайте последние новости, обзоры и скидки ИИ прямо на почту. Присоединяйтесь к 100 000+ энтузиастов ИИ.

Подписываясь, вы соглашаетесь с нашей Политикой конфиденциальности. Отписаться можно в любое время.