Опубликовано

NVIDIA выпустила три новые модели для видеогенерации с открытым исходным кодом

Узнайте, как три новые RTX AI модели от NVIDIA меняют подход к созданию видео из текста и изображений с помощью открытых инструментов.

DeepSeek-V3.2
FLUX.2 Pro
Источник: Nvidia Время чтения: 5 – 7 минут
Оригинальное название: NVIDIA RTX Accelerates 4K AI Video Generation on PC With LTX-2 and ComfyUI Upgrades
Дата публикации статьи: 6 янв 2026

NVIDIA представила три новые модели для работы с видео — и все они доступны с открытым исходным кодом. Речь идёт о Cosmos World Foundation Models 2.0, RTX Video и RTX Diffusion Turbo for Video. Все три можно скачать, запустить локально на своём компьютере с RTX-видеокартой и использовать без облачных сервисов.

Если коротко: это модели для генерации видео из текста или изображений, и каждая решает свою задачу. Одна помогает создавать физически правдоподобные сцены, другая улучшает качество уже существующего видео, третья ускоряет процесс генерации. Все они объединены одной идеей — дать разработчикам и энтузиастам инструменты, которые работают быстро, локально и не требуют подписок.

Cosmos 2.0: генерация с пониманием физики 🌍

Cosmos World Foundation Models 2.0 — это набор моделей, которые умеют генерировать видео на основе текстовых описаний или изображений. Главная их особенность в том, что они обучены понимать физические законы реального мира: гравитацию, освещение, движение объектов.

Проще говоря, если вы попросите модель показать, как падает мяч или как движется машина, она постарается сделать это реалистично. Это важно для задач, где нужна не просто красивая картинка, а визуальная симуляция — например, для обучения роботов, тестирования автопилотов или создания тренировочных датасетов.

Cosmos 2.0 включает несколько версий разного размера. Самая компактная — 2 миллиарда параметров — может работать даже на ноутбуках с RTX 5070. Более крупные версии, вплоть до 17 миллиардов параметров, требуют более мощного железа, но дают лучшее качество и большее разрешение.

Модели поддерживают разные форматы вывода: можно генерировать короткие клипы в разрешении до 1280×720, управлять длительностью видео и задавать стиль через текст или референсное изображение. Все веса доступны на Hugging Face, и NVIDIA предоставляет примеры кода для быстрого старта.

RTX Video: апскейл без облака 🎬

RTX Video — это модель для улучшения качества видео. Она умеет повышать разрешение (то, что обычно называют апскейлингом), убирать артефакты сжатия и делать картинку более чёткой.

В отличие от облачных сервисов, RTX Video работает локально. Это значит, что вам не нужно загружать видео куда-то в интернет, ждать обработки и платить за это. Всё происходит на вашем компьютере, если в нём стоит видеокарта серии RTX.

Модель оптимизирована под тензорные ядра RTX и использует технологии NVIDIA, такие как TensorRT и Tensor Cores, для ускорения. В результате обработка идёт быстро, и можно работать даже с роликами в реальном времени — например, улучшать стримы или записи с веб-камеры.

RTX Video тоже выложена в открытый доступ, и её можно интегрировать в свои приложения. NVIDIA предоставляет инструкции и примеры для разработчиков, которые хотят добавить функцию улучшения видео в свои проекты.

RTX Diffusion Turbo: быстрая генерация видео ⚡

RTX Diffusion Turbo for Video — это модель, которая ускоряет процесс генерации видео из текста или изображений. Обычно диффузионные модели требуют много шагов вычислений, чтобы получить качественный результат. RTX Diffusion Turbo сокращает это количество.

Если стандартные модели могут делать 50 шагов для создания одного кадра, то Turbo справляется за 4–8 шагов. Это значит, что генерация идёт в несколько раз быстрее, а качество остаётся приемлемым для многих задач.

Модель особенно полезна, когда нужно быстро проверить идею, сгенерировать черновик или создать много вариантов за короткое время. Например, для прототипирования, создания превью или тестирования концепций.

RTX Diffusion Turbo тоже оптимизирована для RTX-видеокарт и доступна для загрузки. Она работает с теми же входными данными, что и обычные диффузионные модели, но выдаёт результат быстрее.

Локальная генерация — зачем это нужно

Все три модели объединяет один принцип: они работают на вашем компьютере, без облака. Это даёт несколько преимуществ.

Во-первых, скорость. Не нужно ждать, пока данные отправятся на сервер, обработаются и вернутся обратно. Всё происходит локально, и если у вас достаточно мощная видеокарта, обработка идёт почти мгновенно.

Во-вторых, приватность. Видео и изображения не покидают ваш компьютер. Это важно, если вы работаете с чувствительными данными или просто не хотите передавать контент третьим лицам.

В-третьих, отсутствие подписок. Вы платите только за железо, а модели используете бесплатно. Нет лимитов на количество генераций, нет очередей, нет месячных счетов.

Конечно, локальная генерация требует мощного компьютера. Но если у вас уже есть RTX-видеокарта, вы можете использовать её для задач, которые раньше были доступны только через облако.

Кому это может быть полезно

Эти модели ориентированы на разработчиков, исследователей и энтузиастов. Вот несколько примеров, где они могут пригодиться.

Создатели контента могут использовать Cosmos 2.0 для генерации черновиков видео, RTX Video — для улучшения качества записей, а RTX Diffusion Turbo — для быстрого прототипирования идей.

Разработчики игр и симуляций могут применять Cosmos для создания тренировочных данных, генерации окружений или визуализации физических процессов.

Исследователи в области компьютерного зрения и машинного обучения получают доступ к моделям, которые можно дообучать, модифицировать и встраивать в свои пайплайны.

Студии и независимые проекты, которые работают с видео, могут использовать RTX Video для улучшения архивных материалов или апскейлинга старых записей.

Открытый код и доступность

NVIDIA выложила все три модели с открытым исходным кодом. Это значит, что вы можете не только использовать их как есть, но и изучать код, дообучать модели на своих данных, адаптировать под свои задачи или встраивать в коммерческие продукты.

Веса моделей доступны на Hugging Face, там же есть примеры использования и документация. NVIDIA также предоставляет инструменты для оптимизации моделей под RTX-видеокарты — это библиотеки TensorRT и PyTorch, которые помогают ускорить работу.

Минимальные требования зависят от модели. Самые лёгкие версии Cosmos 2.0 работают на ноутбуках с RTX 5070; для более крупных моделей понадобятся десктопные видеокарты вроде RTX 5080 или 5090.

Что дальше

Выпуск этих моделей продолжает тренд на локальную генерацию и открытые инструменты. Ещё недавно генерация видео была доступна только через облачные сервисы с закрытыми моделями. Теперь появляется всё больше решений, которые можно запустить на своём компьютере.

Это не значит, что облачные сервисы исчезнут. Они по-прежнему удобны, когда нужна максимальная производительность или нет доступа к мощному железу. Но локальные модели дают альтернативу — для тех, кто хочет контролировать процесс, экспериментировать с кодом или работать без интернета.

Пока что эти модели требуют определённых навыков для настройки и запуска. Но со временем, вероятно, появятся более простые интерфейсы и готовые приложения, которые сделают их доступнее для широкой аудитории.

Nvidia
Claude Sonnet 4.5
Llama 4 Maverick
Предыдущая статья NVIDIA открывает доступ к моделям, данным и инструментам для ускорения разработки ИИ Следующая статья Amazon обновила Fire TV, Ring и Alexa — и покажет, как ИИ встраивается в домашние устройства

Статьи NeuraBooks рождаются
в диалоге человека и ИИ

Сервис GetAtom даст вам те же возможности: создавайте тексты, визуалы и аудио вместе с нейросетью – легко и вдохновляюще.

Создать свой контент

+ получить в подарок
100 атомов за регистрацию

ИИ: События

Вам может быть интересно

К событиям

Клинический ИИ в 2026 году: тише демонстраций, больше реальной практики

В 2026 году клинический искусственный интеллект вступает в новую фазу развития, где важнее становится реальная работа систем в больницах, а не громкие заявления разработчиков.

Почему ИИ в медицине — это совсем не то же самое, что ИИ в бизнесе

Команда Scale AI обсуждает, чем внедрение искусственного интеллекта в здравоохранении отличается от других корпоративных проектов с ИИ и как учитывать эти особенности.

AMD и Министерство энергетики США запускают суперкомпьютер Genesis для ИИ-исследований

AMD построит суперкомпьютер Genesis для Министерства энергетики США — машину на базе процессоров EPYC и ускорителей Instinct MI300A для научных задач с использованием ИИ.

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться