Опубликовано

Ray3.14: быстрее, дешевле и с нативным Full HD

Luma Labs обновили свою модель Ray до версии 3.14 – теперь с нативным разрешением 1080p, в четыре раза быстрее и втрое дешевле предшественника.

Продукты
Источник события: Luma AI Время чтения: 2 – 3 минуты

Luma Labs выпустили новую версию своей модели для генерации видео – Ray3.14. Если коротко: она научилась создавать ролики в настоящем Full HD разрешении, работает заметно быстрее и стоит дешевле предыдущих версий.

Что изменилось в новой версии

Главное нововведение – поддержка нативного 1080p. Раньше модель генерировала видео в меньшем разрешении, а потом масштабировала его до Full HD. Теперь каждый кадр создаётся сразу в разрешении 1920×1080 пикселей, что должно положительно сказаться на детализации и чёткости картинки.

Производительность тоже выросла. По данным разработчиков, Ray3.14 работает в четыре раза быстрее прежних версий. Для тех, кто генерирует много контента или работает в сжатые сроки, это существенная разница – меньше времени на ожидание, больше итераций за день.

Что касается стоимости, новая модель обходится в три раза дешевле. Это может сделать генерацию видео более доступной для небольших команд и индивидуальных создателей, которым раньше приходилось считать каждый запрос.

Улучшения в качестве и стабильности

Разработчики заявляют о повышении общего качества генерации и стабильности результатов. Проще говоря, модель должна реже выдавать артефакты и неожиданные искажения, а результаты – становиться более предсказуемыми от запроса к запросу.

Отдельно отмечается улучшение функции Modify Video – режима, в котором можно изменять уже существующее видео по текстовому описанию. В Ray3.14 повысилась согласованность движения между кадрами, что особенно важно при редактировании: чем меньше рывков и несостыковок, тем более естественным выглядит итоговый ролик.

Для кого это актуально

Обновление будет интересно всем, кто уже использует инструменты Luma Labs для создания видеоконтента – от дизайнеров и маркетологов до разработчиков игр и создателей образовательных материалов. Сочетание скорости, цены и качества может расширить круг задач, для которых генеративное видео становится практичным решением.

Особенно заметный выигрыш получат те, кто работает с большими объёмами контента или ограничен бюджетом. Возможность быстрее генерировать больше вариантов за меньшие деньги – это то, что напрямую влияет на рабочий процесс.

Что остаётся за кадром

Несмотря на улучшения, вопросы к генеративному видео в целом никуда не исчезли. Насколько стабильна модель при работе со сложными сценами? Как она справляется с длинными роликами? Какие ограничения остаются в точности передачи движения и физики объектов?

Эти детали обычно проявляются только в реальной работе, и пока остаётся дождаться отзывов пользователей и примеров использования в различных сценариях. Но в любом случае, направление развития очевидно: модели становятся быстрее, доступнее и качественнее – и это хорошая новость для всей индустрии.

Ссылка на публикацию: https://lumalabs.ai/blog/news/ray3_14
Оригинальное название: Ray3.14 is here: Native 1080p, 3x cheaper and 4x faster.
Дата публикации: 26 янв 2026
Luma AIlumalabs.ai Американская компания, разрабатывающая ИИ-модели для 3D-контента и видео.
Предыдущая статья Microsoft представила Maia 200 – ускоритель для инференса Следующая статья AMD выпустила Ryzen AI Software 1.7 – что нового в платформе для локального ИИ

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.5 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.5 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

ИИ: События

Вам может быть интересно

Перейти ко всем событиям

Другие события из мира искусственного интеллекта, которые помогают увидеть общую картину и понять, как меняется направление развития технологий.

Hugging Face запустил Community Evals – платформу, на которой разработчики могут самостоятельно тестировать языковые модели и делиться результатами, не полагаясь на закрытые рейтинги.

Команда Perplexity AI продемонстрировала, как технология прямой передачи данных между серверами помогает языковым моделям работать быстрее и эффективнее, устраняя «узкие места» в сетевой инфраструктуре.

Разбираемся, как слой оркестрации помогает объединить разрозненные инструменты и сервисы в единую экосистему, способную работать без постоянного ручного контроля.

Не пропустите ни одного эксперимента!

Подпишитесь на Telegram-канал –
там мы регулярно публикуем анонсы новых книг, статей и интервью.

Подписаться