Опубликовано 24 февраля 2026

LFM2-24B от Liquid AI: мощная языковая модель с экономным потреблением памяти

Liquid AI выпустила LFM2-24B: большая модель с малым «аппетитом» к памяти

Компания Liquid AI представила LFM2-24B – языковую модель на 24 миллиарда параметров, способную работать эффективнее крупных конкурентов при значительно меньших требованиях к памяти.

Продукты 4 – 5 минут чтения
Источник события: Liquid 4 – 5 минут чтения

Компания Liquid AI, известная своим нестандартным подходом к созданию языковых моделей, выпустила новую разработку – LFM2-24B. Это крупнейшая на сегодняшний день модель в линейке LFM2, и она интересна не столько размером, сколько тем, как ей удаётся конкурировать с более крупными моделями, оставаясь при этом заметно экономнее в потреблении ресурсов.

Что такое языковая модель LFM2

Что такое LFM2?

Большинство современных языковых моделей основано на архитектуре трансформера – это своего рода отраслевой стандарт последних лет. Liquid AI идёт другим путём. Их модели серии LFM2 базируются на гибридной архитектуре, которая сочетает несколько разных подходов к обработке информации. Проще говоря, вместо одного механизма модель использует несколько, что позволяет ей лучше справляться с длинными текстами и меньше нагружать память.

Ранее в линейке были компактные модели на 1,3 и 3,4 миллиарда параметров. LFM2-24B – это качественный шаг вперёд: 24 миллиарда параметров с важной оговоркой. Модель относится к классу mixture of experts («смесь экспертов»): она содержит 24 миллиарда параметров в общей сложности, но при работе активирует лишь около 2 миллиардов из них. Отсюда и обозначение A2B в названии – «active 2 billion» (активные 2 миллиарда).

Это не маркетинговая хитрость, а вполне рабочий принцип: разные части модели специализируются на разных задачах, и в каждый момент задействуется только необходимая часть. Результат – меньше вычислений при сопоставимом или даже лучшем качестве.

Как LFM2-24B работает на практике

Как она себя показывает на практике?

Liquid AI сравнивала LFM2-24B с рядом других популярных моделей среднего и крупного размера. И здесь начинается самое любопытное.

По результатам стандартных тестов модель держится наравне или опережает заметно более крупные модели – в частности, Gemma 3 27B и Mistral Small 3.1. При этом она активно использует лишь около 2 миллиардов параметров, что делает её куда менее требовательной к оборудованию.

Если говорить конкретнее, LFM2-24B хорошо справляется с:

  • рассуждениями и логическими задачами;
  • математикой;
  • работой с кодом;
  • длинными текстами – контекстное окно модели составляет 32 000 токенов, что примерно соответствует небольшой книге.

Отдельно стоит отметить скорость генерации. За счёт того, что активных параметров немного, модель работает быстрее при инференсе – то есть когда она уже обучена и просто отвечает на запросы. Это важно для реальных приложений, где скорость ответа имеет значение.

Экономия памяти LFM2-24B

Память – главный козырь

Одна из главных проблем при работе с языковыми моделями на длинных текстах – это так называемый KV-кэш. Если совсем просто: чтобы «помнить» контекст разговора, модели нужно хранить промежуточные данные, и чем длиннее текст, тем больше памяти это занимает. У стандартных трансформеров этот объём растёт линейно с длиной контекста – и быстро становится слабым местом.

Архитектура LFM2-24B устроена иначе. По данным Liquid AI, модель потребляет в 28 раз меньше памяти для кэша по сравнению с моделями аналогичного размера на базе трансформера. Это не небольшое улучшение – это принципиально другой масштаб потребления.

На практике это означает, что модель можно запускать на значительно более скромном оборудовании, чем потребовалось бы для аналогов. Или – при том же оборудовании – обрабатывать гораздо больше запросов одновременно. Для компаний, которые строят продукты на основе языковых моделей, это напрямую влияет на стоимость эксплуатации.

Применение LFM2-24B: кому нужна модель

Кому и зачем это нужно?

Если вы разработчик или исследователь, ищущий модель для встраивания в продукт или локального запуска – LFM2-24B выглядит как интересный вариант. Особенно там, где важно работать с длинными документами или обеспечить высокую пропускную способность без огромного бюджета на графические процессоры (GPU).

Модель доступна для скачивания на Hugging Face и выпущена под лицензией, допускающей коммерческое использование с определёнными условиями – их стоит изучить перед применением в конкретном проекте.

Liquid AI также предоставляет доступ через собственное API – для тех, кто предпочитает не разворачивать модель локально.

Перспективы масштабирования LFM2-24B и AI-моделей в целом

Это только начало масштабирования

Примечательно, что LFM2-24B – это не просто новая модель, а проверка гипотезы. Liquid AI хотела убедиться, что их архитектура сохраняет преимущества при увеличении размера. Судя по результатам, масштабирование работает: модель не теряет эффективности с ростом параметров, а в чём-то даже выигрывает.

Это важно в контексте общей дискуссии об эффективности ИИ-моделей. Индустрия давно ищет способы получить больше от меньшего – и подходы вроде того, что использует Liquid AI, становятся всё более актуальными по мере роста стоимости вычислений.

Открытым остаётся вопрос о том, насколько хорошо модель справится с более сложными, многошаговыми задачами – теми, где нужно не просто ответить на вопрос, а выстроить цепочку рассуждений или работать как агент. Это область, в которой архитектурные различия могут проявляться сильнее, и здесь у LFM2-24B пока меньше публичных данных.

Но как шаг в сторону более экономичных и при этом мощных моделей – это весомый аргумент в пользу того, что трансформер не единственный путь вперёд. 🙂

Ссылка на публикацию: https://www.liquid.ai/blog/lfm2-24b-a2b
Оригинальное название: LFM2-24B-A2B: Scaling Up the LFM2 Architecture
Дата публикации: 24 фев 2026
Liquid www.liquid.ai Американская ИИ-компания, исследующая альтернативные архитектуры нейросетей и адаптивные модели.
Предыдущая статья Как AliSQL хранит векторы и осуществляет поиск схожих данных: детали внутренней механики Следующая статья Alibaba открыла исходный код своей модели для управления роботами

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

ИИ: События

Как масштабировать vLLM и не допустить ошибок нехватки памяти

Технический контекст Инфраструктура

Команда AI21 Labs поделилась опытом оптимизации vLLM – популярного инструмента для развертывания языковых моделей, который при масштабировании часто сталкивается с критическими ошибками из-за дефицита оперативной памяти.

AI21 Labswww.ai21.com 6 фев 2026

ИИ: События

Unsloth ускорил обучение MoE-моделей в 12 раз и увеличил объем контекста

Технический контекст Разработка

Новые ядра и математические оптимизации Unsloth сокращают требования к памяти на 35%, увеличивают скорость обучения в 12 раз и позволяют работать с контекстом, который в 6 раз длиннее исходного.

Unslothunsloth.ai 11 фев 2026

ИИ: События

Perplexity показала, как обучать модели с триллионом параметров на базе AWS

Технический контекст Инфраструктура

Команда Perplexity адаптировала фреймворк для обучения сверхбольших нейросетей под облачную инфраструктуру Amazon. Это позволило устранить жесткую зависимость от проприетарного оборудования NVIDIA и использовать стандартные сетевые решения.

Perplexity AIresearch.perplexity.ai 7 фев 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите глубже погрузиться в мир
нейротворчества?

Первыми узнавайте о новых книгах, статьях и экспериментах с ИИ
в нашем Telegram-канале!

Подписаться