Опубликовано 25 марта 2026

OpenAI открывает разработчикам инструменты защиты подростков в ИИ-приложениях

OpenAI выпустила набор готовых политик безопасности с открытым исходным кодом, которые помогают разработчикам защищать подростков от опасного контента в ИИ-приложениях.

Безопасность 4 – 5 минут чтения
Источник события: OpenAI 4 – 5 минут чтения

Один из самых сложных вопросов в индустрии ИИ звучит примерно так: кто отвечает за безопасность подростка, который пользуется не ChatGPT напрямую, а приложением, созданным сторонним разработчиком на основе языковой модели? Официально – разработчик. Но на практике у него часто нет ни инструментов, ни готовых правил, с которых можно было бы начать.

OpenAI решила восполнить этот пробел, выпустив набор политик безопасности для работы с подростковой аудиторией. Речь идёт о готовых инструкциях с открытым исходным кодом, которые разработчики могут встроить в свои системы, чтобы ИИ понимал, какой именно контент считать опасным для несовершеннолетних, и реагировал соответствующим образом.

Сложности определения вредного контента для подростков

Проблема, которую сложнее всего сформулировать

Казалось бы, принцип «защищать детей от вредного контента» звучит просто. Но именно с формулировками у разработчиков возникают основные сложности. Что именно считать опасным для подростка? Где проходит граница между допустимым обсуждением темы здоровья и контентом, подталкивающим к расстройствам пищевого поведения? В какой момент ролевая игра становится проблемой?

Классификаторы – специальные модели, умеющие распознавать потенциально вредный контент, – эффективно работают только тогда, когда им дано чёткое определение объекта поиска. Без таких критериев они либо пропускают реальные риски, либо блокируют безобидный текст. Перевести абстрактные цели вроде «сделать ИИ безопасным для подростков» в конкретные работающие правила – задача, с которой, по признанию самой компании, не справляются даже опытные команды.

Именно поэтому OpenAI выпустила не просто модель или фильтр, а готовые политики, сформулированные в виде инструкций, понятных языковым моделям. Их можно использовать для фильтрации контента в реальном времени или для анализа уже накопленных данных.

Категории рисков и форматы политик безопасности

Что конкретно охватывают эти правила

Политики включают несколько категорий рисков, особенно актуальных для подростков:

  • графическое насилие и сексуальный контент;
  • искажённые представления о теле и пищевом поведении;
  • опасные активности и вирусные «челленджи»;
  • романтические или агрессивные ролевые игры;
  • товары и услуги, запрещённые для несовершеннолетних.

Важно, что они оформлены именно как инструкции-промпты, а не как жёстко заданные технические правила. Это означает, что разработчик может адаптировать их под свой продукт, перевести на другой язык или расширить с учётом специфики аудитории. Такой формат проще встраивается в существующие рабочие процессы и позволяет вносить итеративные улучшения – то есть дорабатывать инструкции по мере изменения рисков или накопления опыта.

При разработке политик OpenAI сотрудничала с организациями Common Sense Media и everyone.ai, специализирующимися на безопасности детей и подростков в цифровой среде. Их участие помогло точнее определить границы рисков и проработать пограничные случаи.

Ограничения новых инструментов и ответственность разработчиков

Часть большой системы, но не вся система

OpenAI прямо указывает: новые политики – это «базовый уровень защиты», а не исчерпывающее решение всех проблем безопасности. Они не дублируют все внутренние меры, которые компания применяет в собственных продуктах, и не снимают с разработчиков ответственности за дополнительные решения – продуктовые, дизайнерские и связанные с пользовательским контролем.

Эта оговорка существенна. В последнее время OpenAI столкнулась с судебными исками от семей пострадавших – в ряде случаев речь идёт о подростках, вступивших в длительные и деструктивные отношения с чат-ботом. В этом контексте выпуск инструментов безопасности с открытым исходным кодом можно воспринимать и как искреннюю попытку улучшить положение дел в индустрии, и как часть более широкой ответной реакции компании на критику.

Нынешний шаг продолжает серию мер, предпринятых OpenAI в последние месяцы: обновление внутренних правил поведения моделей с включением специальных принципов для пользователей младше 18 лет, запуск родительского контроля, а также разработка системы определения возраста, которая должна помочь автоматически применять строгие настройки в случаях, когда пользователь может оказаться несовершеннолетним.

Значение открытых стандартов безопасности для индустрии ИИ

Почему это важно для всей экосистемы, а не только для OpenAI

Здесь стоит обратить внимание на формат распространения. Политики опубликованы с открытым исходным кодом через сообщество ROOST Model Community. Это означает, что ими может воспользоваться любой разработчик, а не только те, кто использует инфраструктуру OpenAI. Небольшая инди-команда, создающая приложение для учебных целей, получает тот же набор проверенных правил, что и крупная корпорация.

Проще говоря, раньше каждая команда либо «изобретала велосипед», либо вовсе не занималась этим вопросом из-за нехватки экспертизы или ресурсов. Теперь появилась отправная точка. Это не гарантирует абсолютной безопасности, но существенно снижает порог входа для тех, кто стремится соблюдать этические стандарты.

Открытым остаётся вопрос, примут ли аналогичный подход другие крупные игроки. Если подобные политики станут общим стандартом, а не конкурентным преимуществом одной компании, шансы на реальное улучшение ситуации в индустрии заметно вырастут. Пока это лишь первый шаг, но сам факт его публичности уже меняет дискуссию о том, кто и как должен заниматься защитой подростков в мире ИИ.

Ссылка на публикацию: https://openai.com/index/teen-safety-policies-gpt-oss-safeguard
Оригинальное название: Helping developers build safer AI experiences for teens
Дата публикации: 24 мар 2026
OpenAI openai.com Американская компания, создающая универсальные ИИ-модели для текста, кода и изображений.
Предыдущая статья Тысяча GPU, один кластер и награда за лучшее облачное решение: как SK Telecom построили «Хэин» Следующая статья Когда 31% кэша просто исчезает: история одного тихого бага в глубинах GPU-кода

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Не пропустите ни одного эксперимента!

Подпишитесь на Telegram-канал –
там мы регулярно публикуем анонсы новых книг, статей и интервью.

Подписаться