Как простая рекурсивная формула порождает иерархию нарастающей сложности – и почему математики хотят превратить это в инструмент защиты данных.
ИИ: События
ИИ-агенты под угрозой: что показала проверка 30 000 навыков в каталоге Alibaba Cloud
Безопасность
Alibaba Cloud проверила безопасность 30 000 навыков ИИ-агентов и обнаружила серьёзные угрозы, требующие специализированных инструментов защиты.
ИИ: События
Как мошенники поставили доверие на поток: от дипфейков знаменитостей до аватарных ферм
Безопасность
Разбираемся, как современные мошенники используют инструменты искусственного интеллекта для массового создания поддельных личностей и манипуляций с доверием аудитории.
ИИ: События
Как ИИ-помощников обманывают изнутри: что такое инъекция промптов и почему это важно
Безопасность
Разберём одну из ключевых угроз для ИИ-систем в бизнесе – инъекцию промптов: как она работает, чем опасна и как от неё защищаются.
OpenAI предлагает исследователям вознаграждение за поиск способов злоупотребления ИИ – от атак на агентные системы до утечки данных через манипуляции с подсказками.
Разбираем, где и как злоумышленники могут атаковать ИИ-модели – от этапа обучения до развёртывания в продакшене.
GitHub расширил возможности Code Security: теперь искусственный интеллект помогает находить уязвимости там, куда раньше статический анализ не добирался.
Что происходит, когда ИИ начинает действовать самостоятельно, и почему его автономность открывает двери для атак, о которых раньше никто не думал.
Codex Security от OpenAI отказался от традиционного статического анализа кода в пользу подхода, который ищет реальные уязвимости, а не засыпает разработчика ложными предупреждениями.