Опубликовано 26 марта 2026

Google открыла доступ к Lyria 3: генерация музыки по текстовому запросу

Google открыла доступ к Lyria 3 – модели, которая сочиняет музыку по текстовому запросу

Google открыла разработчикам доступ к Lyria 3 – модели генерации музыки, которая умеет создавать треки с вокалом и инструментальные композиции по текстовому описанию.

Разработка 4 – 6 минут чтения
Источник события: Google 4 – 6 минут чтения

Если вы следили за тем, как Google постепенно интегрировала в свои продукты инструменты для работы с изображениями, видео и текстом, то следующий шаг выглядит вполне логичным: компания открыла разработчикам доступ к Lyria 3 – своей новейшей модели для генерации музыки.

Что такое Lyria 3: модель Google DeepMind для генерации музыки

Что такое Lyria 3 и откуда она взялась

Lyria 3 – это разработка Google DeepMind, исследовательского подразделения Google. Модель умеет создавать музыкальные треки на основе текстового описания: вы пишете что-то вроде «расслабляющий джаз с фортепиано, вечерняя атмосфера» – и получаете готовую композицию. Причём не просто инструментальную: модель может генерировать треки с вокалом и текстом песни, не требуя от пользователя самостоятельно писать слова.

До недавнего времени Lyria 3 была доступна в потребительских продуктах Google – в частности, она уже работает в приложении Gemini, где любой желающий может попробовать сгенерировать 30-секундный трек по описанию или по загруженной фотографии. Теперь же компания сделала шаг навстречу разработчикам: модель открыта для использования через API в платном режиме предварительного доступа, а также доступна для тестирования в Google AI Studio.

Lyria 3: новые возможности генерации музыки по сравнению с прошлыми версиями

Чем Lyria 3 отличается от предыдущих версий

Google выделяет три ключевых улучшения по сравнению с более ранними версиями модели.

Во-первых, автоматическая генерация текста песни. Раньше, если вы хотели трек с вокалом, слова нужно было придумывать самостоятельно. Lyria 3 справляется с этим сама – достаточно описать настроение или тему.

Во-вторых, больше контроля над результатом. Модель позволяет точнее управлять такими параметрами, как стиль, характер вокала и темп. Проще говоря, если вы хотите медленный трек с женским голосом в стиле инди-поп – можно указать это явно, а не надеяться на удачу.

В-третьих, более реалистичное и музыкально насыщенное звучание. Это сложнее описать словами, но суть в том, что генерируемые треки стали ближе к тому, что мы привыкли слышать в реальной музыке – с более проработанными аранжировками и естественным звучанием инструментов.

Применение Lyria 3: зачем Google открывает доступ разработчикам

Зачем это разработчикам

Открытие API – это, по сути, приглашение: Google предлагает разработчикам встраивать генерацию музыки в собственные приложения и сервисы. Раньше для этого нужно было либо лицензировать готовые треки, либо работать со сторонними инструментами, возможности которых сильно варьировались.

Теперь появляется возможность генерировать уникальную музыку прямо внутри продукта – например, для мобильного приложения, где фоновая музыка подстраивается под настроение пользователя, или для инструмента создания видеоконтента, где саундтрек генерируется автоматически под картинку.

Это не гипотетические сценарии: YouTube уже использует Lyria 3 в функции Dream Track, которая позволяет авторам коротких видео генерировать саундтреки для своих роликов. Функция запущена в США и постепенно распространяется на другие страны.

Авторские права и маркировка ИИ-музыки: как работает SynthID в Lyria 3

Что с авторскими правами и маркировкой

Один из самых чувствительных вопросов в теме ИИ-генерации контента – это идентификация: как понять, что перед тобой не живая запись, а сгенерированный трек? Google решает это через технологию SynthID – систему невидимой водяной маркировки. Проще говоря, в каждый сгенерированный трек встраивается цифровой «отпечаток», который не слышен на слух, но может быть обнаружен программно.

Все треки, созданные через Lyria 3 в приложении Gemini, автоматически получают такую метку. Кроме того, в Gemini появился инструмент проверки: можно загрузить аудиофайл и спросить, был ли он создан с помощью Google AI. Система проверит наличие водяного знака SynthID и даст ответ.

Это важно не только для пользователей, но и для платформ, которые сталкиваются с растущим давлением в части маркировки ИИ-сгенерированного контента. Встроенная верификация – это попытка заложить механизм прозрачности прямо в инфраструктуру, а не добавлять его постфактум.

Как пользоваться Lyria 3 в Gemini: создание музыки без навыков программирования

Как это выглядит на практике – для тех, кто не пишет код

Если вы не разработчик, но хотите попробовать – в приложении Gemini это уже доступно в бета-режиме. Вы описываете жанр, настроение, тематику или даже конкретное воспоминание. Gemini генерирует трек – лирический или инструментальный – и автоматически создаёт для него обложку. Результат можно скачать или поделиться ссылкой.

Поддерживается и работа с медиафайлами: можно загрузить фото или короткое видео, и Gemini сгенерирует музыку, соответствующую настроению и содержанию материала. Это скорее экспериментальная возможность, но она показывает, в каком направлении движется идея: музыка как автоматически подбираемый контекстный слой, а не отдельный ресурс, который нужно искать или покупать.

Перспективы ИИ и генерации музыки: направление развития Google AI

Что это говорит о направлении движения

Открытие Lyria 3 для разработчиков – часть более широкой картины. Google последовательно расширяет набор модальностей, доступных через свои API: текст, изображения, видео, теперь музыка. Идея в том, чтобы разработчики могли строить мультимедийные приложения, не собирая решение из десятка разных сервисов.

Пока доступ платный и находится в режиме предварительного тестирования – это стандартная практика перед широким запуском. Как именно будет выглядеть ценообразование в финальной версии и какие ограничения останутся – пока открытый вопрос. Но сам факт выхода за пределы потребительских приложений и перехода к инструментарию для разработчиков говорит о том, что Google рассматривает генерацию музыки не как эксперимент, а как полноценную часть своей AI-платформы.

Оригинальное название: Build with Lyria 3, our newest music generation model
Дата публикации: 25 мар 2026
Google blog.google Международная технологическая компания, развивающая цифровые сервисы, облачные платформы и ИИ-технологии для поиска, рекламы, продуктивности и пользовательских продуктов.
Предыдущая статья EgoVerse: как видео от первого лица учит роботов человеческим движениям Следующая статья OpenAI запустила программу поиска уязвимостей в безопасности ИИ

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться