Если вы следили за тем, как Google постепенно интегрировала в свои продукты инструменты для работы с изображениями, видео и текстом, то следующий шаг выглядит вполне логичным: компания открыла разработчикам доступ к Lyria 3 – своей новейшей модели для генерации музыки.
Что такое Lyria 3 и откуда она взялась
Lyria 3 – это разработка Google DeepMind, исследовательского подразделения Google. Модель умеет создавать музыкальные треки на основе текстового описания: вы пишете что-то вроде «расслабляющий джаз с фортепиано, вечерняя атмосфера» – и получаете готовую композицию. Причём не просто инструментальную: модель может генерировать треки с вокалом и текстом песни, не требуя от пользователя самостоятельно писать слова.
До недавнего времени Lyria 3 была доступна в потребительских продуктах Google – в частности, она уже работает в приложении Gemini, где любой желающий может попробовать сгенерировать 30-секундный трек по описанию или по загруженной фотографии. Теперь же компания сделала шаг навстречу разработчикам: модель открыта для использования через API в платном режиме предварительного доступа, а также доступна для тестирования в Google AI Studio.
Чем Lyria 3 отличается от предыдущих версий
Google выделяет три ключевых улучшения по сравнению с более ранними версиями модели.
Во-первых, автоматическая генерация текста песни. Раньше, если вы хотели трек с вокалом, слова нужно было придумывать самостоятельно. Lyria 3 справляется с этим сама – достаточно описать настроение или тему.
Во-вторых, больше контроля над результатом. Модель позволяет точнее управлять такими параметрами, как стиль, характер вокала и темп. Проще говоря, если вы хотите медленный трек с женским голосом в стиле инди-поп – можно указать это явно, а не надеяться на удачу.
В-третьих, более реалистичное и музыкально насыщенное звучание. Это сложнее описать словами, но суть в том, что генерируемые треки стали ближе к тому, что мы привыкли слышать в реальной музыке – с более проработанными аранжировками и естественным звучанием инструментов.
Зачем это разработчикам
Открытие API – это, по сути, приглашение: Google предлагает разработчикам встраивать генерацию музыки в собственные приложения и сервисы. Раньше для этого нужно было либо лицензировать готовые треки, либо работать со сторонними инструментами, возможности которых сильно варьировались.
Теперь появляется возможность генерировать уникальную музыку прямо внутри продукта – например, для мобильного приложения, где фоновая музыка подстраивается под настроение пользователя, или для инструмента создания видеоконтента, где саундтрек генерируется автоматически под картинку.
Это не гипотетические сценарии: YouTube уже использует Lyria 3 в функции Dream Track, которая позволяет авторам коротких видео генерировать саундтреки для своих роликов. Функция запущена в США и постепенно распространяется на другие страны.
Что с авторскими правами и маркировкой
Один из самых чувствительных вопросов в теме ИИ-генерации контента – это идентификация: как понять, что перед тобой не живая запись, а сгенерированный трек? Google решает это через технологию SynthID – систему невидимой водяной маркировки. Проще говоря, в каждый сгенерированный трек встраивается цифровой «отпечаток», который не слышен на слух, но может быть обнаружен программно.
Все треки, созданные через Lyria 3 в приложении Gemini, автоматически получают такую метку. Кроме того, в Gemini появился инструмент проверки: можно загрузить аудиофайл и спросить, был ли он создан с помощью Google AI. Система проверит наличие водяного знака SynthID и даст ответ.
Это важно не только для пользователей, но и для платформ, которые сталкиваются с растущим давлением в части маркировки ИИ-сгенерированного контента. Встроенная верификация – это попытка заложить механизм прозрачности прямо в инфраструктуру, а не добавлять его постфактум.
Как это выглядит на практике – для тех, кто не пишет код
Если вы не разработчик, но хотите попробовать – в приложении Gemini это уже доступно в бета-режиме. Вы описываете жанр, настроение, тематику или даже конкретное воспоминание. Gemini генерирует трек – лирический или инструментальный – и автоматически создаёт для него обложку. Результат можно скачать или поделиться ссылкой.
Поддерживается и работа с медиафайлами: можно загрузить фото или короткое видео, и Gemini сгенерирует музыку, соответствующую настроению и содержанию материала. Это скорее экспериментальная возможность, но она показывает, в каком направлении движется идея: музыка как автоматически подбираемый контекстный слой, а не отдельный ресурс, который нужно искать или покупать.
Что это говорит о направлении движения
Открытие Lyria 3 для разработчиков – часть более широкой картины. Google последовательно расширяет набор модальностей, доступных через свои API: текст, изображения, видео, теперь музыка. Идея в том, чтобы разработчики могли строить мультимедийные приложения, не собирая решение из десятка разных сервисов.
Пока доступ платный и находится в режиме предварительного тестирования – это стандартная практика перед широким запуском. Как именно будет выглядеть ценообразование в финальной версии и какие ограничения останутся – пока открытый вопрос. Но сам факт выхода за пределы потребительских приложений и перехода к инструментарию для разработчиков говорит о том, что Google рассматривает генерацию музыки не как эксперимент, а как полноценную часть своей AI-платформы.