Опубликовано 27 февраля 2026

AMD запускает гигантскую AI-модель локально: триллион параметров на домашнем железе

Триллион параметров на домашнем «железе»: AMD показала, как запустить гигантскую языковую модель локально

AMD рассказала, как запустить языковую модель с триллионом параметров на кластере из потребительских устройств – без облака и серверных ферм.

Инфраструктура 4 – 5 минут чтения
Источник события: AMD 4 – 5 минут чтения

Когда говорят о больших языковых моделях, в голове обычно возникает образ огромного центра обработки данных где-то в пустыне – с километрами серверных стоек, промышленными холодильниками и счетами за электричество, от которых становится не по себе. Логика понятна: чем больше модель, тем серьёзнее инфраструктура. Но AMD недавно показала, что это уравнение можно немного пересмотреть.

Что за модель и почему триллион параметров это много

Что это за модель и почему «триллион» – это много

Для понимания масштаба: большинство моделей, которые сегодня работают непосредственно на устройстве – в телефоне, ноутбуке или настольном компьютере, – имеют от одного до нескольких десятков миллиардов параметров. Параметры – это, грубо говоря, «веса» внутри модели, которые определяют, как она отвечает на вопросы и генерирует текст. Чем их больше, тем, как правило, умнее и универсальнее модель – но и тем больше памяти и вычислительной мощности ей требуется.

Триллион параметров – это в десятки раз больше, чем у большинства моделей, доступных широкой аудитории. Такие модели обычно размещены исключительно в облаке, и доступ к ним возможен только через интернет-запрос к серверу компании.

AMD решила проверить: а что если попробовать запустить нечто подобное локально – без облака, без аренды серверов – на кластере из потребительских устройств на базе чипа Ryzen AI Max+?

Кластер из обычных машин: как это работает

Кластер из «обычных» машин – звучит просто, но это не так

Ryzen AI Max+ – это чип AMD, предназначенный для производительных ноутбуков и рабочих станций. Он сочетает в себе процессор, графическое ядро и специализированный блок для работы с нейросетями. По меркам потребительского рынка – довольно мощное решение, но всё равно далеко не серверное «железо».

Идея AMD состоит в следующем: несколько таких устройств объединяются в кластер, то есть работают совместно как единая система. Каждое устройство берёт на себя часть модели – и вместе они справляются с задачей, которая одному узлу была бы явно не по зубам.

Проще говоря, это похоже на то, как несколько человек несут тяжёлый диван по лестнице: по отдельности каждый не справится, а вместе – вполне.

Как это выглядит на практике

AMD опубликовала подробное техническое руководство, в котором описывает, как именно настроить такой кластер и запустить на нём модель с триллионом параметров. Для развёртывания рекомендуется использовать Lemonade SDK – набор инструментов, который упрощает процесс настройки и запуска модели на подобном оборудовании.

Процесс включает объединение нескольких устройств в сеть, распределение частей модели между ними и координацию их совместной работы. Это требует определённых технических знаний, но AMD явно рассчитывает, что такой подход станет доступен не только исследовательским лабораториям, но и более широкому кругу разработчиков.

Зачем запускать AI-модели локально

Зачем вообще запускать такое локально?

Хороший вопрос. На первый взгляд кажется, что проще воспользоваться облачным сервисом – и не возиться с кластерами. Но у локального запуска есть несколько весомых преимуществ.

  • Приватность. Данные не покидают устройство. Для компаний, работающих с конфиденциальной информацией, это критически важно.
  • Независимость от интернета и внешних сервисов. Нет подписки, нет ограничений по запросам, нет зависимости от политики провайдера.
  • Контроль над моделью. Можно использовать конкретную версию, дообучать модель под свои задачи, настраивать поведение.
  • Потенциальная экономия при больших объёмах. Облако удобно, но при интенсивном использовании стоимость быстро растёт.

Конечно, всё это актуально скорее для организаций или продвинутых разработчиков, чем для обычных пользователей. Собрать кластер из нескольких дорогостоящих рабочих станций – удовольствие не из дешёвых.

Это демонстрация возможностей и это важно понимать

Это демонстрация возможностей – и это важно понимать

Пока что речь идёт скорее о демонстрации технической возможности, чем о готовом массовом решении. AMD показывает: вот что умеет наше «железо», вот как далеко можно зайти, не прибегая к облаку.

Но сам факт того, что триллионная модель в принципе может работать на кластере потребительских устройств – пусть и высококлассных – это заметный сдвиг в том, как мы думаем о границе между «домашним» и «серверным» ИИ.

Ещё несколько лет назад запуск даже модели в несколько десятков миллиардов параметров на локальном «железе» казался чем-то экзотическим. Сегодня это уже почти рутина для технически подготовленных пользователей. Возможно, через какое-то время кластерный запуск триллионных моделей тоже перейдёт в разряд «ничего особенного».

Открытые вопросы о локальном запуске AI-моделей

Открытые вопросы

Как это часто бывает с подобными демонстрациями, за кадром остаётся ряд важных деталей.

Насколько быстро такая система отвечает на запросы? Для модели такого размера скорость генерации текста – критический параметр. Если ответа приходится ждать несколько минут, практическая ценность снижается.

Сколько устройств нужно для комфортной работы? Руководство AMD даёт технические ориентиры, но реальный пользовательский опыт будет зависеть от конкретных задач и конфигурации.

Наконец, насколько стабильно работает такой кластер в долгосрочной перспективе – с обновлениями, нагрузкой, нестандартными запросами? Это вопросы, ответы на которые появятся только с практикой.

Тем не менее, направление понятно: AMD последовательно движется к тому, чтобы сделать мощный локальный ИИ реальностью – не только на бумаге, но и в реальных рабочих сценариях.

Оригинальное название: Trillion-Parameter LLM on an AMD Ryzen™ AI Max+ Cluster
Дата публикации: 26 фев 2026
AMD www.amd.com Международная компания – производитель процессоров и вычислительных ускорителей для ИИ-задач.
Предыдущая статья Cursor научил своего бота не просто находить баги, но и исправлять их Следующая статья Perplexity выпустила собственные модели для поиска по огромным массивам текста

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

Liquid AI представила LFM2-24B – свою крупнейшую языковую модель, отличающуюся нестандартной архитектурой и способную работать как в облаке, так и на локальных устройствах.

Liquidwww.liquid.ai 25 фев 2026

Группа инженеров нашла способ превратить нейросети в обычные логические цепочки, чтобы они работали на слабых процессорах быстрее на 15% без потери точности.

Доктор София Чен 8 фев 2026

ИИ: События

Как AMD и Qwen выжали максимум из видеокарт MI300X

Технический контекст Инфраструктура

Команда Qwen оптимизировала свои модели для работы на AMD MI300X, добившись задержки отклика до 15 мс на токен и полной генерации изображения за 0,4 секунды.

LMSYS ORGlmsys.org 13 фев 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться