Опубликовано 21 марта 2026

Безопасность агентного ИИ: анонсы Microsoft на RSAC 2026

Агентный ИИ и безопасность: что Microsoft представила на RSAC 2026

Microsoft анонсировала новые инструменты для защиты агентного ИИ на конференции RSAC 2026. Теперь безопасность встраивается на каждом уровне ИИ-инфраструктуры.

Безопасность 4 – 5 минут чтения
Источник события: Microsoft 4 – 5 минут чтения

Мы привыкли думать об ИИ как об инструменте, который отвечает на вопросы или генерирует текст. Но за последние пару лет картина изменилась: всё больше систем строится на так называемых агентах – программах, которые не просто отвечают, а действуют. Они запускают задачи, обращаются к внешним сервисам, принимают решения в несколько шагов и при этом нередко работают автономно, без участия человека на каждом этапе.

Это удобно. Но вместе с этим возникает вопрос, который раньше стоял не так остро: а кто следит за тем, что эти агенты делают? И что происходит, если что-то пойдёт не так?

Почему защита агентного ИИ требует отдельного подхода

Почему агентный ИИ – это отдельная история с точки зрения безопасности

Обычный чат-бот ограничен: он получил запрос, сформировал ответ, на этом всё. Агентные системы устроены иначе. Агент может получить доступ к данным, выполнить действие, передать управление другому агенту, снова что-то проверить – и всё это в рамках одной задачи.

Проще говоря, чем больше шагов и чем больше автономии, тем больше точек, в которых что-то может пойти не так. Это не значит, что агентный ИИ опасен по определению, это значит, что к нему нужен другой подход к защите.

Именно вокруг этого и строится то, что Microsoft анонсировала на конференции RSAC 2026.

Три направления безопасности агентного ИИ от Microsoft

Три направления, одна логика

Microsoft сформулировала свой подход к безопасности агентного ИИ через три задачи: защита самих агентов, защита их фундамента (то есть данных, моделей и инфраструктуры, на которых они работают) и использование агентов как инструмента защиты – то есть применение ИИ для обнаружения угроз и реагирования на них.

Это не три отдельных продукта – это логика, которая, по задумке, должна пронизывать всю ИИ-инфраструктуру организации. Безопасность не накручивается сверху, а встраивается на каждом уровне.

Когда агент – это и цель атаки, и возможный источник риска

Агенты, как и любое программное обеспечение, могут быть уязвимы. Их можно попытаться обмануть через входящие данные, заставить выполнить нежелательные действия или использовать как точку входа в более широкую инфраструктуру.

Одна из новых возможностей, которые Microsoft представила, – это защита агентов от так называемых атак через внедрение инструкций. Это когда вредоносные данные, поступающие агенту извне (например, из документа или веб-страницы), содержат скрытые команды, которые агент может непреднамеренно выполнить. Такой вид угрозы специфичен именно для агентных систем и фактически не существовал в эпоху простых чат-ботов.

Помимо этого, появляются инструменты для контроля того, что агент вообще имеет право делать: к каким данным обращаться, какие действия выполнять, с какими внешними сервисами взаимодействовать. Это похоже на принцип минимальных привилегий, который давно применяется в классической кибербезопасности, – только адаптированный под агентные сценарии.

Фундамент тоже нуждается в защите

Агент настолько надёжен, насколько надёжна среда, в которой он работает. Если модель, на которой он основан, скомпрометирована или если данные, к которым он обращается, содержат что-то вредоносное, – никакой контроль поведения агента уже не поможет.

Поэтому отдельное внимание уделяется защите самих ИИ-моделей и данных: мониторинг того, как модели используются, обнаружение аномалий в их поведении, контроль над тем, какие данные попадают в обучающие процессы или становятся доступны агентам в ходе работы.

Если коротко: недостаточно защитить то, что агент делает. Нужно ещё защитить то, из чего он сделан и на чём работает.

ИИ как союзник в защите

Третье направление – пожалуй, самое интересное концептуально. Microsoft делает ставку не только на то, чтобы защищать ИИ-системы, но и на то, чтобы использовать их для защиты всего остального.

Агенты, заточенные под задачи безопасности, могут мониторить инфраструктуру, выявлять подозрительную активность, приоритизировать инциденты и даже предлагать варианты реагирования – причём делать это быстрее, чем это физически возможно для команды людей.

Это не замена специалистам по безопасности, а скорее усиление: агент берёт на себя рутинную часть – просеивание огромного потока событий, – а человек сосредотачивается на решениях, требующих контекста и суждения.

Почему безопасность ИИ-агентов актуальна уже сейчас

Почему это важно именно сейчас

Агентный ИИ перестал быть экспериментальной концепцией. Организации уже сегодня строят на его основе реальные рабочие процессы: автоматизацию операций, поддержку клиентов, внутренние ассистенты с доступом к корпоративным данным. Чем шире проникновение агентов, тем острее встаёт вопрос: а продумана ли безопасность?

Исторически так бывает, что безопасность подтягивается после того, как технология уже распространилась. RSAC 2026 – это сигнал о том, что по крайней мере часть индустрии пытается не повторять эту ошибку.

Ни одна система не бывает защищена абсолютно, и агентный ИИ не исключение. Но разница между «безопасность встроена с самого начала» и «безопасность добавлена потом» – принципиальная. И именно на этой разнице Microsoft строит свою позицию в новом ИИ-ландшафте.

Оригинальное название: Secure agentic AI end-to-end
Дата публикации: 20 мар 2026
Microsoft www.microsoft.com Международная компания, интегрирующая ИИ в облако, офисные продукты и инструменты разработчиков.
Предыдущая статья Restyle: превращаем фотографию в произведение искусства по запросу Следующая статья Voice Showdown: первый открытый ринг для голосовых ИИ-моделей

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

Nacos 3.2 представил корпоративный реестр навыков для ИИ-агентов, который помогает защититься от вредоносных плагинов и упорядочить управление ИИ-ресурсами.

Alibaba Cloudwww.alibabacloud.com 13 мар 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Не пропустите ни одного эксперимента!

Подпишитесь на Telegram-канал –
там мы регулярно публикуем анонсы новых книг, статей и интервью.

Подписаться