Опубликовано 24 марта 2026

Безопасность Sora: принципы OpenAI, защита от фейков и детей

Как OpenAI встраивает безопасность в Sora: от фейков до защиты детей

OpenAI рассказала, как устроена система безопасности в видеогенераторе Sora и одноимённом приложении – от модерации до цифровых меток на контенте.

Безопасность 3 – 5 минут чтения
Источник события: OpenAI 3 – 5 минут чтения

Генерация видео по текстовому запросу – одна из самых впечатляющих возможностей современного ИИ. Но она же вызывает и самые серьёзные опасения: фейки, дипфейки, контент с изображением детей, дезинформация. OpenAI понимает это и заранее говорит о том, как устроена защита в Sora и новом приложении Sora.

Почему видео из ИИ требует особого подхода

Почему видео – это особый случай

Текстовые и даже графические модели уже накопили определённую практику в вопросах безопасности. С видео всё сложнее: оно воспринимается как более «настоящее», быстрее распространяется и труднее поддаётся проверке. Фейковое видео с реальным человеком способно нанести куда больший вред, чем текстовое высказывание от его имени.

Именно поэтому OpenAI подчёркивает: Sora создавалась с учётом безопасности с самого начала, а не как дополнение к готовому продукту. Проще говоря – не «сначала выпустим, потом разберёмся», а «сначала разберёмся».

Что запрещено генерировать в Sora

Что конкретно запрещено

Список ограничений достаточно предсказуем, но важен в деталях. Sora не будет генерировать:

  • сексуальный контент с участием несовершеннолетних (это абсолютное ограничение, без исключений);
  • реалистичные видео с реальными людьми без их согласия – особенно в компрометирующих или сексуальных контекстах;
  • контент, который может использоваться для массовой дезинформации или манипуляций;
  • сцены с реальным насилием, представленным в позитивном свете.

При этом OpenAI оговаривается: творческая свобода важна, и система не должна блокировать всё подряд «на всякий случай». Баланс между допустимым и запрещённым – одна из ключевых задач, с которой работает команда.

Цифровые метки для ИИ-видео: как распознать

Цифровые метки: как отличить ИИ-видео от реального

Один из конкретных механизмов защиты – цифровые водяные знаки. Каждое видео, созданное через Sora, получает невидимую метку по стандарту C2PA (это открытый отраслевой стандарт для маркировки контента, созданного ИИ). Метка встроена в сам файл и сохраняется при распространении.

Это не панацея – технически метку можно попытаться удалить. Но в сочетании с другими мерами она даёт возможность платформам и инструментам верификации определять происхождение видео. Если вы видите ролик и хотите понять, сделан ли он нейросетью, – наличие такой метки может дать ответ.

Модерация контента и жёсткие ограничения в Sora

Модерация и красные линии

Система безопасности работает на нескольких уровнях. До генерации – запрос анализируется на предмет потенциально опасного содержания. В процессе и после – результат также проверяется. OpenAI использует как автоматические классификаторы, так и ручную проверку в сложных случаях.

Отдельно выделены так называемые «жёсткие ограничения» – вещи, которые модель не сделает ни при каких обстоятельствах, вне зависимости от формулировки запроса. Сексуальный контент с детьми – один из таких случаев. OpenAI подчёркивает, что здесь нет никаких «творческих исключений» или обходных сценариев.

Социальная платформа Sora: аспекты безопасности

Социальная платформа – отдельный вызов

Приложение Sora – это не просто инструмент генерации, это ещё и площадка, где пользователи делятся своими работами. А значит, к стандартным вопросам безопасности добавляются те, что характерны для любой социальной сети: репосты, ремиксы, анонимные аккаунты, вирусное распространение.

OpenAI говорит, что выстраивает политику с учётом этой специфики. В частности, это означает более строгие требования к контенту, который публично распространяется внутри платформы, по сравнению с тем, что пользователь создаёт для личного использования.

Исследования и внешний контроль безопасности Sora

Исследования и внешний контроль

Перед запуском Sora OpenAI привлекала внешних исследователей безопасности – так называемых «красных команд» (англ. red teamers), чья задача состоит в том, чтобы намеренно искать способы обойти защиту. Это стандартная практика в индустрии, но применительно к видеомоделям она особенно важна: пространство возможных злоупотреблений здесь значительно шире, чем у текстовых систем.

Компания также сотрудничает с организациями, занимающимися защитой детей и противодействием дезинформации. Это не просто PR-шаг – такие партнёрства позволяют получать обратную связь от людей, которые видят реальный вред от подобного контента в своей работе.

Неидеальная защита: что учесть в работе с Sora

Что остаётся открытым

Честный взгляд на ситуацию требует признать: ни одна система защиты не является идеальной. Классификаторы ошибаются. Злоумышленники ищут обходные пути. Масштаб платформы неизбежно означает, что часть нежелательного контента будет проскальзывать.

OpenAI об этом не умалчивает. Компания прямо говорит, что безопасность – это непрерывный процесс, а не состояние, которого можно достичь раз и навсегда. Это важная оговорка: она означает, что правила и механизмы будут меняться по мере появления новых угроз и новых способов их использования.

Для пользователей это, пожалуй, главный вывод: Sora – мощный инструмент с реальными ограничениями, и эти ограничения существуют не для того, чтобы мешать творчеству, а для того, чтобы не дать технологии стать инструментом вреда. Насколько этот баланс удастся удержать на практике – покажет время.

Ссылка на публикацию: https://openai.com/index/creating-with-sora-safely
Оригинальное название: Creating with Sora Safely
Дата публикации: 23 мар 2026
OpenAI openai.com Американская компания, создающая универсальные ИИ-модели для текста, кода и изображений.
Предыдущая статья Как безопасно запускать ИИ-агентов в клиентской поддержке: опыт Notch Следующая статья GitHub научил свой сканер безопасности понимать код как человек

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

Исследователи описали технику «промптоморфизма»: генерация ИИ-инструментами бесконечных вариаций вредоносного кода делает традиционные методы защиты всё менее эффективными.

Gen Digitalwww.gendigital.com 21 мар 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться