Когда речь заходит об ИИ-агентах – системах, которые не просто отвечают на вопросы, но и выполняют задачи, такие как поиск информации, вызов внешних инструментов, планирование шагов, – обычно подразумевается мощная облачная инфраструктура. Серверы где-то далеко, запросы туда-обратно, задержки, зависимость от подключения к сети. Это стало настолько привычным, что казалось почти неизбежным.
Liquid AI решила оспорить это представление. Компания выпустила модель LFM2-24B-A2B, которая, по их словам, способна полноценно работать в режиме агента – с вызовом инструментов и многошаговым выполнением задач – прямо на потребительском оборудовании. Без облака, без ожидания, без зависимости от стороннего сервера.
Что значит «вызов инструментов» и зачем это вообще нужно
Если коротко: обычная языковая модель отвечает текстом. Агент с вызовом инструментов может делать что-то: запросить погоду через API, выполнить поиск в интернете, запустить скрипт, обратиться к базе данных. Это принципиально другой уровень полезности.
Проще говоря, разница примерно такая же, как между человеком, который даёт советы по телефону, и человеком, который физически приходит и делает работу своими руками. Первое – полезно. Второе – гораздо ценнее в конкретных задачах.
Именно поэтому агентный режим – одно из самых обсуждаемых направлений в ИИ прямо сейчас. Но большинство сильных агентных моделей требуют серьёзных вычислительных ресурсов, которые есть только у облачных провайдеров.
24 миллиарда параметров, но «активных» – только 2
Здесь стоит сказать пару слов об архитектурном решении, потому что именно оно объясняет, почему модель вообще помещается на потребительское устройство.
LFM2-24B-A2B – это так называемая разреженная модель. У неё 24 миллиарда параметров суммарно, но при обработке каждого конкретного запроса активируется лишь около 2 миллиардов из них. Остальные в этот момент «молчат».
Это похоже на большую библиотеку, где на полках стоят тысячи книг, но для ответа на конкретный вопрос библиотекарь берёт только нужные – не таскает всё сразу. В результате вычислительная нагрузка оказывается значительно ниже, чем можно было бы ожидать от модели такого размера.
Именно это делает запуск на обычном потребительском GPU реалистичным – не в качестве демонстрации, а в качестве рабочего варианта.
Что умеет модель на практике
Liquid AI тестировала LFM2-24B-A2B на нескольких стандартных бенчмарках для агентных задач – тех самых наборах тестов, где моделям нужно не просто ответить на вопрос, а выполнить цепочку действий с использованием инструментов.
Результаты оказались конкурентоспособными по сравнению с моделями, которые при этом требуют значительно больше ресурсов или работают исключительно в облаке. Модель справляется с многошаговыми задачами, корректно вызывает инструменты, удерживает контекст на протяжении диалога.
Отдельно стоит отметить скорость. Локальный запуск без сетевых задержек – это не просто удобство, это качественно другой опыт взаимодействия с агентом, особенно когда задача требует нескольких последовательных шагов и каждый из них раньше «тормозил» на запросе к облаку.
Почему это важно не только для энтузиастов
Запуск мощных моделей локально – тема, которая долгое время воспринималась как хобби для тех, кто любит возиться с оборудованием. Но постепенно она превращается в нечто большее.
Во-первых, приватность. Данные, которые обрабатываются локально, не уходят никуда. Для корпоративных пользователей, медицинских приложений, юридических инструментов – это не просто удобство, а часто требование.
Во-вторых, независимость от инфраструктуры. Нет подписки, нет лимитов на запросы, нет риска, что сервис изменит условия или станет временно недоступен.
В-третьих, латентность. Агентные задачи часто предполагают десятки последовательных обращений к модели. Каждая миллисекунда задержки умножается – и на облачных решениях это заметно. Локальная модель убирает эту проблему почти полностью.
Когда агентная модель с реальными возможностями помещается на устройство, которое уже стоит у разработчика или исследователя на столе, – порог входа резко снижается. А это значит, что больше людей могут строить агентные системы без необходимости платить за облачные вычисления или получать доступ к корпоративной инфраструктуре.
Открытый доступ и куда двигаться дальше
Модель доступна публично – её можно найти и загрузить через Hugging Face. Liquid AI также опубликовала материалы о том, как запустить LFM2-24B-A2B в агентном режиме, включая примеры конфигурации для работы с инструментами.
Это не закрытый продукт для корпоративных клиентов, а открытый релиз – что само по себе говорит о том, что компания делает ставку на сообщество разработчиков и хочет, чтобы модель тестировали, использовали и строили на её основе.
Остаются и открытые вопросы. Насколько стабильно модель будет работать в сложных агентных сценариях с нестандартными инструментами? Как она поведёт себя при длинных цепочках рассуждений? Эти вещи всегда лучше проверять в реальных условиях, а не только по бенчмаркам.
Но сам факт того, что агентная модель такого уровня теперь доступна для локального запуска – это смещение точки отсчёта. Не революция, но заметный сдвиг в том, что стало возможным без облака.