Опубликовано 6 марта 2026

Мощный ИИ-агент без облака: как LFM2-24B-A2B работает на вашем компьютере

Мощный ИИ-агент без облака: как LFM2-24B-A2B работает прямо на вашем компьютере

Liquid AI представила модель LFM2-24B-A2B, способную запускать ИИ-агентов с вызовом инструментов прямо на потребительском оборудовании – без облака и задержек.

Продукты 4 – 5 минут чтения
Источник события: Liquid 4 – 5 минут чтения

Когда речь заходит об ИИ-агентах – системах, которые не просто отвечают на вопросы, но и выполняют задачи, такие как поиск информации, вызов внешних инструментов, планирование шагов, – обычно подразумевается мощная облачная инфраструктура. Серверы где-то далеко, запросы туда-обратно, задержки, зависимость от подключения к сети. Это стало настолько привычным, что казалось почти неизбежным.

Liquid AI решила оспорить это представление. Компания выпустила модель LFM2-24B-A2B, которая, по их словам, способна полноценно работать в режиме агента – с вызовом инструментов и многошаговым выполнением задач – прямо на потребительском оборудовании. Без облака, без ожидания, без зависимости от стороннего сервера.

Что значит вызов инструментов и для чего это нужно в ИИ-агентах

Что значит «вызов инструментов» и зачем это вообще нужно

Если коротко: обычная языковая модель отвечает текстом. Агент с вызовом инструментов может делать что-то: запросить погоду через API, выполнить поиск в интернете, запустить скрипт, обратиться к базе данных. Это принципиально другой уровень полезности.

Проще говоря, разница примерно такая же, как между человеком, который даёт советы по телефону, и человеком, который физически приходит и делает работу своими руками. Первое – полезно. Второе – гораздо ценнее в конкретных задачах.

Именно поэтому агентный режим – одно из самых обсуждаемых направлений в ИИ прямо сейчас. Но большинство сильных агентных моделей требуют серьёзных вычислительных ресурсов, которые есть только у облачных провайдеров.

Как разреженная архитектура позволяет модели 24B работать локально

24 миллиарда параметров, но «активных» – только 2

Здесь стоит сказать пару слов об архитектурном решении, потому что именно оно объясняет, почему модель вообще помещается на потребительское устройство.

LFM2-24B-A2B – это так называемая разреженная модель. У неё 24 миллиарда параметров суммарно, но при обработке каждого конкретного запроса активируется лишь около 2 миллиардов из них. Остальные в этот момент «молчат».

Это похоже на большую библиотеку, где на полках стоят тысячи книг, но для ответа на конкретный вопрос библиотекарь берёт только нужные – не таскает всё сразу. В результате вычислительная нагрузка оказывается значительно ниже, чем можно было бы ожидать от модели такого размера.

Именно это делает запуск на обычном потребительском GPU реалистичным – не в качестве демонстрации, а в качестве рабочего варианта.

Возможности и производительность модели LFM2-24B-A2B на практике

Что умеет модель на практике

Liquid AI тестировала LFM2-24B-A2B на нескольких стандартных бенчмарках для агентных задач – тех самых наборах тестов, где моделям нужно не просто ответить на вопрос, а выполнить цепочку действий с использованием инструментов.

Результаты оказались конкурентоспособными по сравнению с моделями, которые при этом требуют значительно больше ресурсов или работают исключительно в облаке. Модель справляется с многошаговыми задачами, корректно вызывает инструменты, удерживает контекст на протяжении диалога.

Отдельно стоит отметить скорость. Локальный запуск без сетевых задержек – это не просто удобство, это качественно другой опыт взаимодействия с агентом, особенно когда задача требует нескольких последовательных шагов и каждый из них раньше «тормозил» на запросе к облаку.

Почему локальные ИИ-агенты важны для приватности и независимости

Почему это важно не только для энтузиастов

Запуск мощных моделей локально – тема, которая долгое время воспринималась как хобби для тех, кто любит возиться с оборудованием. Но постепенно она превращается в нечто большее.

Во-первых, приватность. Данные, которые обрабатываются локально, не уходят никуда. Для корпоративных пользователей, медицинских приложений, юридических инструментов – это не просто удобство, а часто требование.

Во-вторых, независимость от инфраструктуры. Нет подписки, нет лимитов на запросы, нет риска, что сервис изменит условия или станет временно недоступен.

В-третьих, латентность. Агентные задачи часто предполагают десятки последовательных обращений к модели. Каждая миллисекунда задержки умножается – и на облачных решениях это заметно. Локальная модель убирает эту проблему почти полностью.

Когда агентная модель с реальными возможностями помещается на устройство, которое уже стоит у разработчика или исследователя на столе, – порог входа резко снижается. А это значит, что больше людей могут строить агентные системы без необходимости платить за облачные вычисления или получать доступ к корпоративной инфраструктуре.

Открытый доступ к LFM2-24B-A2B и перспективы развития модели

Открытый доступ и куда двигаться дальше

Модель доступна публично – её можно найти и загрузить через Hugging Face. Liquid AI также опубликовала материалы о том, как запустить LFM2-24B-A2B в агентном режиме, включая примеры конфигурации для работы с инструментами.

Это не закрытый продукт для корпоративных клиентов, а открытый релиз – что само по себе говорит о том, что компания делает ставку на сообщество разработчиков и хочет, чтобы модель тестировали, использовали и строили на её основе.

Остаются и открытые вопросы. Насколько стабильно модель будет работать в сложных агентных сценариях с нестандартными инструментами? Как она поведёт себя при длинных цепочках рассуждений? Эти вещи всегда лучше проверять в реальных условиях, а не только по бенчмаркам.

Но сам факт того, что агентная модель такого уровня теперь доступна для локального запуска – это смещение точки отсчёта. Не революция, но заметный сдвиг в том, что стало возможным без облака.

Оригинальное название: No Cloud, No Waiting: Tool-Calling Agents on Consumer Hardware with LFM2-24B-A2B
Дата публикации: 5 мар 2026
Liquid www.liquid.ai Американская ИИ-компания, исследующая альтернативные архитектуры нейросетей и адаптивные модели.
Предыдущая статья OLMo Hybrid: трансформеры и рекуррентные сети объединяются Следующая статья Открытый ИИ без привязки к оборудованию: зачем это нужно и кто этим занимается

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться