Опубликовано 19 марта 2026

Как оценить прогресс ИИ: фреймворк DeepMind для AGI

Как понять, насколько мы близки к истинному ИИ: Google DeepMind предлагает свою систему измерений

Google DeepMind представила когнитивную систему для оценки прогресса на пути к искусственному общему интеллекту (AGI) и запустила хакатон на Kaggle для разработки соответствующих тестов.

Исследования 4 – 5 минут чтения
Источник события: Google DeepMind 4 – 5 минут чтения

Один из главных вопросов в сфере искусственного интеллекта звучит просто, но ответить на него по-прежнему трудно: как понять, что мы приближаемся к настоящему ИИ – тому, который умеет мыслить так же гибко, как человек? Google DeepMind решила подойти к этому вопросу системно и представила собственную концептуальную основу для измерения прогресса в направлении AGI – так называемого «общего искусственного интеллекта».

AGI: что это и чем отличается от нынешнего ИИ

AGI – это не просто умная программа

Прежде чем говорить об измерениях, стоит уточнить, что такое AGI. Если коротко: это гипотетический ИИ, который способен решать любые интеллектуальные задачи так же хорошо – или лучше – чем человек. Не только играть в шахматы или писать тексты, а именно любые задачи, включая те, с которыми он никогда раньше не сталкивался.

Сегодняшние системы, даже самые мощные языковые модели, умеют многое – но действуют в довольно чётких рамках. Они хорошо справляются с тем, на что их обучали, и нередко теряются там, где человек легко адаптируется. Так что разрыв между «умным ИИ» и «настоящим общим интеллектом» всё ещё огромен. И именно поэтому вопрос об измерении этого пути становится всё актуальнее.

Измерение AGI: почему это сложная задача

Измерить то, чего ещё нет, – задача не из лёгких

Проблема в том, что у нас до сих пор нет общепринятого способа оценить, насколько близка та или иная система к AGI. Существующие тесты и бенчмарки – то есть наборы задач, по которым сравниваются модели – как правило, проверяют что-то конкретное: насколько хорошо модель переводит текст, решает математические задачи или пишет код. Но ни один из них не даёт целостной картины.

Именно здесь DeepMind делает шаг вперёд. Компания предлагает когнитивную основу – набор принципов и категорий, которые описывают интеллект не по узким навыкам, а по более фундаментальным когнитивным способностям. Проще говоря: они хотят измерять не «что умеет делать модель», а «как она думает и насколько гибко».

Принципы оценки интеллекта от DeepMind

Что именно предлагает DeepMind

В основе подхода – идея о том, что интеллект можно разложить на несколько ключевых когнитивных измерений. Это не просто список навыков – это попытка описать структуру мышления как такового. В рамках предложенной системы оценивается не только то, справился ли ИИ с задачей, но и каким образом: использовал ли он обобщение, абстракцию, рассуждение, обучение по аналогии и так далее.

Такой подход позволяет отслеживать прогресс не как «прыжки» от одного громкого результата к другому, а как постепенное движение по множеству измерений одновременно. Это ближе к тому, как учёные оценивают развитие интеллекта у людей или животных – через набор когнитивных способностей, а не по одному тесту.

Как хакатон на Kaggle поможет в развитии методики

Хакатон как способ проверить теорию на практике

Одновременно с публикацией фреймворка DeepMind запустила хакатон на платформе Kaggle. Это соревнование для разработчиков и исследователей, где участникам предлагается создать конкретные оценочные задачи – тесты, которые соответствуют логике предложенной концептуальной системы.

Это интересный ход. Вместо того чтобы самостоятельно придумывать все нужные тесты, DeepMind фактически открывает задачу для широкого сообщества. Хакатон – это способ быстро собрать большое количество идей, отобрать лучшие и превратить их в рабочие инструменты оценки. По сути, компания говорит: «Вот концепция – помогите нам её наполнить конкретными измерениями».

Kaggle – популярная среди специалистов по машинному обучению платформа для соревнований. Её аудитория – сотни тысяч разработчиков и исследователей по всему миру, так что охват у инициативы немалый.

Почему новая система оценки ИИ важна для всей индустрии

Зачем это нужно всем, а не только DeepMind

На первый взгляд это может выглядеть как внутренний проект крупной технологической компании. Но на самом деле вопрос стандартов оценки ИИ касается всех, кто работает с этими системами или зависит от них.

Без общих критериев прогресса трудно сравнивать разные системы между собой, трудно понять, где реальные достижения, а где маркетинг, – и совсем непросто объяснить обществу, что происходит на самом деле. Сейчас каждая лаборатория во многом оценивает себя сама – по тем тестам, где её модели выглядят лучше всего. Это неидеальная ситуация.

Если DeepMind удастся предложить достаточно убедительную основу – и привлечь к её развитию широкое сообщество – это может стать шагом к более честным и сопоставимым оценкам в индустрии в целом.

Перспективы и сложности новой концепции AGI

Что пока остаётся открытым

Конечно, подобные инициативы редко принимаются единогласно. Само понятие AGI остаётся дискуссионным: разные исследователи понимают под ним разные вещи, и единого определения до сих пор нет. Это значит, что любой фреймворк для его «измерения» будет опираться на конкретные допущения – и их можно оспорить.

Кроме того, есть риск, что новые тесты в итоге окажутся такими же узкими, как и предыдущие, – просто более нарядно упакованными. История с бенчмарками в ИИ знает немало примеров, когда модели быстро «насыщали» тест, не демонстрируя при этом реального обобщённого интеллекта.

Но сам факт того, что одна из ведущих ИИ-лабораторий мира решила подойти к вопросу системно и открыто, – это уже немало. Посмотрим, что получится из хакатона и как другие игроки индустрии отреагируют на предложенную систему координат.

Оригинальное название: Measuring progress toward AGI: A cognitive framework
Дата публикации: 17 мар 2026
Google DeepMind deepmind.google Международная исследовательская лаборатория Google, занимающаяся фундаментальными и прикладными ИИ-разработками.
Предыдущая статья Google инвестирует в безопасность открытого кода и применяет ИИ Следующая статья Databricks представила новую модель для поиска и работы с данными в ИИ-агентах

Связанные публикации

Вам может быть интересно

Перейти к другим событиям

События – лишь часть картины. Эти материалы помогают увидеть шире: контекст, последствия и идеи, стоящие за новостями.

Новый бенчмарк проверяет, насколько быстро и точно ИИ-агенты исправляют код, а не просто находят проблемы – учитывая время, попытки и реальные условия работы.

OpenHandsopenhands.dev 17 фев 2026

Стэнфордские исследователи протестировали ведущие ИИ-модели на способность ориентироваться в пространстве и обнаружили неожиданно слабые результаты.

Stanford AI Laboratoryai.stanford.edu 5 мар 2026

От источника к разбору

Как создавался этот текст

Этот материал не является прямым пересказом исходной публикации. Сначала была отобрана сама новость – как событие, важное для понимания развития ИИ. Затем мы задали рамку обработки: что в тексте важно прояснить, какой контекст добавить и на чём сделать акцент. Это позволило превратить отдельный анонс или обновление в связный и осмысленный разбор.

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах обработки. Каждая из них выполняла свою роль – анализ источника, переписывание, проверка и визуальная интерпретация. Такой подход позволяет сохранить прозрачность процесса и ясно показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 4.6 Anthropic Анализ исходной публикации и написание текста Нейросеть изучает оригинальный материал и формирует связный текст

1. Анализ исходной публикации и написание текста

Нейросеть изучает оригинальный материал и формирует связный текст

Claude Sonnet 4.6 Anthropic
2.
Gemini 2.5 Flash Google DeepMind Проверка и правка текста Исправление ошибок, неточностей и спорных формулировок

2. Проверка и правка текста

Исправление ошибок, неточностей и спорных формулировок

Gemini 2.5 Flash Google DeepMind
3.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

3. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
4.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

4. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться