Опубликовано 8 марта 2026

Управление цепочками рассуждений ИИ: эксперимент OpenAI

Цепочки мышления ИИ живут своей жизнью – и это, как ни странно, хорошо

OpenAI выяснила, что современные модели ИИ с трудом контролируют собственный процесс мышления – и это может быть важной защитой от манипуляций.

Безопасность 4 – 6 минут чтения
Источник события: OpenAI 4 – 6 минут чтения

Когда модели ИИ научились «думать вслух» – то есть перед ответом разворачивать цепочку промежуточных рассуждений – это сразу вызвало закономерный вопрос: а что, если кто-то попытается направить эти рассуждения в нужную сторону? Скажем, подтолкнуть модель к нужному выводу, спрятав подсказку прямо в процессе её размышлений.

OpenAI решила проверить, насколько это реально – и заодно разобраться, как хорошо сами модели управляют своим «внутренним монологом». Для этого исследователи разработали специальную методологию под названием CoT-Control.

Что такое цепочка рассуждений ИИ и зачем её контролировать

Что такое «цепочка рассуждений» и зачем её контролировать

Проще говоря, современные мощные ИИ-модели перед тем, как дать ответ, сначала «думают». Они разворачивают промежуточный текст – шаги, прикидки, проверки, – и только потом формулируют финальный ответ. Это называется цепочкой рассуждений, или Chain of Thought.

Такой подход делает модели заметно умнее в сложных задачах. Но он же порождает новый вопрос безопасности: что, если этот «внутренний монолог» можно взломать или подделать? Например, внедрить скрытую инструкцию прямо в промежуточный текст и заставить модель прийти к нужному выводу – обойдя при этом обычные фильтры.

Именно это OpenAI и решила проверить на практике.

Эксперимент: можно ли внедрить мысль в процесс рассуждения ИИ

Эксперимент: можно ли «подсадить» мысль в процесс рассуждения

Исследователи разработали методику CoT-Control – набор тестов, в которых модели предлагалось намеренно управлять своими рассуждениями. В одних случаях модель должна была включить в цепочку мышления определённые скрытые инструкции. В других – намеренно исключить их или проигнорировать. По сути, проверялось: насколько легко убедить модель «думать по-другому», если попросить её об этом явно или неявно.

Результат оказался неожиданным – и, если вдуматься, обнадёживающим.

Модели с трудом справлялись с этой задачей. Они плохо контролировали собственный процесс рассуждений. Даже когда им прямо говорили «рассуждай так-то», они всё равно «соскальзывали» обратно к своей обычной манере мышления. Это не баг – это, по мнению OpenAI, признак того, что рассуждения у таких моделей в значительной мере органичны и не поддаются простой подмене.

Почему отсутствие контроля над мыслями ИИ может быть полезным

Почему «плохой контроль» – это хорошая новость

На первый взгляд звучит парадоксально: модель не может управлять своими мыслями – и это хорошо? Но логика здесь простая.

Если модель легко принимает «чужие» инструкции прямо внутри своих рассуждений, это открывает дверь для манипуляций. Злоумышленник мог бы вставить в контекст скрытую инструкцию – и модель, следуя ей в своих промежуточных шагах, в итоге выдала бы нужный ему ответ, не «заметив» подвоха.

Но если рассуждения модели устойчивы к внешнему вмешательству – то есть она не особо слушается скрытых подсказок и продолжает думать по-своему, – это делает её значительно труднее для такого рода атак.

Это похоже на то, как если бы человек во время сложного размышления не отвлекался на посторонние голоса. Не потому что его специально так натренировали, а просто потому что он сосредоточен на задаче.

Мониторинг рассуждений ИИ как инструмент безопасности

Мониторинг рассуждений как инструмент безопасности

Параллельно с экспериментом OpenAI сделала ещё один важный вывод: цепочки рассуждений можно и нужно наблюдать. Именно это они называют monitorability – возможностью отслеживать, что происходит «внутри» модели во время её размышлений.

Идея в том, что если мы видим промежуточные шаги – мы можем замечать аномалии. Например, если модель вдруг начинает рассуждать в явном противоречии со своими обычными принципами, это сигнал. Не обязательно повод для паники, но повод для проверки.

Это принципиально отличается от моделей, которые просто выдают ответ без каких-либо промежуточных объяснений. Там – чёрный ящик. Здесь – хотя бы частично открытое окно.

Конечно, наблюдение за рассуждениями – не универсальная защита. Модель теоретически может «думать» одно, а делать другое. Или её промежуточные рассуждения могут быть непрозрачными даже при наличии текста. Но как дополнительный уровень контроля – это полезный инструмент, особенно на фоне растущей сложности моделей.

Значение исследования для безопасности ИИ в целом

Что это значит для безопасности ИИ в целом

Исследование OpenAI вписывается в более широкую дискуссию об управляемости ИИ-систем. Один из ключевых вопросов в этой области – как убедиться, что модели действуют предсказуемо и в соответствии с намерениями разработчиков, а не вопреки им.

Традиционно для этого использовались внешние фильтры и ограничения – правила, которые срабатывают уже после того, как модель «придумала» ответ. Но изучение самого процесса рассуждений открывает новый угол: можно ли встроить контроль не на выходе, а в сам ход мышления?

Судя по результатам, прямое управление рассуждениями работает плохо – и это само по себе ценное наблюдение. Значит, рассчитывать на то, что модель «сама себя направит куда надо» через промежуточные шаги, не стоит. Нужны другие механизмы.

При этом устойчивость рассуждений к внешним инструкциям – это скорее плюс, чем минус. Модель, которую сложно «перепрограммировать» изнутри её же собственного мышления, в каком-то смысле надёжнее той, которую можно легко направить в любую сторону.

Открытые вопросы в управлении рассуждениями ИИ

Открытые вопросы

Исследование поднимает столько же вопросов, сколько и отвечает. Несколько из них остаются пока без ответа.

  • Насколько честно отражают промежуточные рассуждения реальный «ход мыслей» модели? Или это лишь обёртка, которая выглядит как рассуждение, но по факту не влияет на результат?
  • Можно ли создать более продвинутые методы внедрения скрытых инструкций, против которых устойчивость текущих моделей не сработает?
  • Как масштабировать мониторинг рассуждений в условиях реального использования, где объём таких цепочек огромен?

Это не попытка нагнать тревогу – просто честное признание того, что мы находимся в начале пути. Способность наблюдать за тем, как модель «думает», – это ценный инструмент. Но то, что именно мы видим в этих рассуждениях и насколько им можно доверять, – вопрос, который ещё предстоит изучить.

В конечном счёте, работа OpenAI с CoT-Control – это скорее методологический задел, чем готовое решение. Они показали, как можно измерять управляемость рассуждений, и зафиксировали важный факт: пока что такая управляемость невысока. Что само по себе неплохо – и точно заслуживает дальнейшего внимания.

Оригинальное название: Reasoning models struggle to control their chains of thought, and that's good
Дата публикации: 5 мар 2026
OpenAI openai.com Американская компания, создающая универсальные ИИ-модели для текста, кода и изображений.
Предыдущая статья GPT-5.4 от OpenAI: новая модель для профессиональной работы Следующая статья Прогноз погоды без иллюзий: как ИИ учится работать с неопределённостью

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

Новая система защиты помогает браузерным ИИ-агентам распознавать вредоносные инструкции, скрытые на веб-страницах, и предотвращает их выполнение в обход задач пользователя.

Perplexity AIresearch.perplexity.ai 6 фев 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Не пропустите ни одного эксперимента!

Подпишитесь на Telegram-канал –
там мы регулярно публикуем анонсы новых книг, статей и интервью.

Подписаться