Опубликовано 17 марта 2026

Qwen3-5 и AMD: запуск мощной языковой модели на облачном железе

Qwen3-5 и AMD: как запустить мощную языковую модель на облачном железе

AMD рассказала, как развернуть языковую модель Qwen3-5 на своём облачном сервисе Developer Cloud с помощью фреймворка SGLang – без лишних сложностей.

Инфраструктура 3 – 4 минуты чтения
Источник события: AMD 3 – 4 минуты чтения

Одна из распространённых проблем при работе с большими языковыми моделями – это разрыв между «скачать и попробовать» и «реально запустить на нормальном железе». Облачные платформы постепенно устраняют этот разрыв, и AMD Developer Cloud – один из таких примеров. Недавно там появился подробный гайд по развёртыванию модели Qwen3-5 с использованием фреймворка SGLang, и это неплохой повод разобраться, что происходит и чем это может быть интересно.

Что такое языковая модель Qwen3-5

Qwen3-5 – что за модель

Qwen3-5 – это языковая модель от китайской компании Alibaba, из серии Qwen3. Если говорить просто: это большая, хорошо обученная модель общего назначения, которая умеет отвечать на вопросы, писать код, рассуждать и выполнять самые разные текстовые задачи. Версия с 122 миллиардами параметров – одна из наиболее мощных в этом семействе.

Модель распространяется в открытом доступе, что делает её привлекательной для разработчиков и исследователей, которые хотят развернуть что-то серьёзное у себя, а не полностью полагаться на внешние API.

AMD Developer Cloud и проект OpenCLaw

AMD Developer Cloud – это облачная платформа, которая даёт доступ к GPU-серверам на базе видеокарт AMD. Звучит просто, но в контексте ИИ это важно: большинство облачных решений для запуска моделей исторически ориентировались на железо NVIDIA. AMD активно наверстывает упущенное, и Developer Cloud – часть этих усилий.

OpenCLaw – это проект внутри экосистемы AMD, направленный на то, чтобы упростить развёртывание открытых языковых моделей на AMD-железе. Если коротко: это набор инструментов и практик, который снижает порог входа для тех, кто хочет запустить современную модель, но не хочет разбираться в тонкостях совместимости железа и программного стека с нуля.

SGLang для языковых моделей

SGLang – зачем он нужен

SGLang – это фреймворк для запуска языковых моделей в режиме сервера. Проще говоря, он превращает модель в сервис: запросы приходят, ответы уходят, всё работает как API. Это особенно важно в сценариях, где модель должна обслуживать несколько запросов одновременно – например, в приложениях или пайплайнах автоматизации.

SGLang ориентирован на производительность и поддерживает AMD-железо, что делает его логичным выбором для этой связки. В описанной конфигурации модель запускается как сервер, доступный по сети, с поддержкой авторизации и настраиваемым бэкендом для вычислений.

Как происходит применение на практике

Как это выглядит на практике

Суть подхода – запустить контейнер (изолированную среду) с моделью и SGLang внутри, который начинает принимать запросы по заданному адресу и порту. Модель загружается в память GPU, и дальше с ней можно работать так же, как с любым другим языковым сервисом: отправлять запросы, получать ответы.

Всё это разворачивается на облачных серверах AMD, то есть не нужно иметь собственное дорогостоящее железо. Достаточно получить доступ к AMD Developer Cloud, следовать инструкции – и модель размером 122 миллиарда параметров становится доступна как локальный сервис.

Почему это актуально и интересно

Почему это интересно

Несколько лет назад запустить модель такого масштаба самостоятельно было практически нереально без специализированной инфраструктуры. Сейчас это становится всё более рутинной задачей – при наличии правильных инструментов и доступа к облаку.

Для разработчиков это означает большую независимость: можно взять открытую модель, развернуть её на контролируемой инфраструктуре, настроить под свои нужды и не платить за каждый запрос к стороннему API. Для AMD – это демонстрация того, что их платформа вполне работоспособна в сценариях, которые раньше ассоциировались исключительно с конкурирующим железом.

Остаётся ряд практических вопросов: производительность на AMD-железе по сравнению с альтернативами, удобство настройки для тех, кто не знаком с контейнерами и конфигурационными файлами, а также стоимость использования облака при длительных нагрузках. Но сам факт появления таких гайдов и их детализации – хороший знак для тех, кто делает ставку на открытые модели и альтернативное железо.

Оригинальное название: OpenCLaw on AMD Developer Cloud Qwen 3 5 and SGLang
Дата публикации: 16 мар 2026
AMD www.amd.com Международная компания – производитель процессоров и вычислительных ускорителей для ИИ-задач.
Предыдущая статья Alibaba выпустила открытый инструмент для ИИ-агентов, работающий на слабом оборудовании Следующая статья AssemblyAI запустила потоковое разделение голосов в реальном времени

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

Новая связка TorchFT и TorchTitan позволяет продолжать обучение моделей на графических процессорах AMD даже после отказа узлов кластера – без полной перезагрузки процесса.

AMDwww.amd.com 10 фев 2026

AMD показала, как организовать обучение LLM на GPU-кластерах так, чтобы сбои устранялись автоматически, а не превращались в ручную работу.

AMDwww.amd.com 4 мар 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться