Опубликовано

Почему умный ИИ не может забыть – и как это исправить

Исследуем парадокс современного ИИ: чтобы стать специалистом, он должен сначала изучить всё на свете, а потом «забыть» ненужное.

Компьютерная наука
Leonardo Phoenix 1.0
Автор: Доктор София Чен Время чтения: 4 – 6 минут

Разбор алгоритмов

84%

Культурная адаптация

87%

Фокус на этике

82%
Оригинальное название: On the creation of narrow AI: hierarchy and nonlocality of neural network skills
Дата публикации статьи: 21 мая 2025

Представьте, что вы хотите нанять переводчика с китайского. Приходит кандидат и говорит: «Да, я отлично перевожу с китайского, но ещё умею готовить борщ, программировать на Python и рассказывать анекдоты». Звучит здорово, но что если вам нужен просто переводчик – без лишних способностей, которые могут отвлекать или создавать проблемы?

Примерно такая же ситуация с современным ИИ. ChatGPT умеет и стихи писать, и код отлаживать, и математические задачи решать. Но иногда нам нужен ИИ, который делает только одну вещь – зато делает её идеально.

Зачем ИИ нужно «забывать»?

Универсальность – это здорово, но у неё есть тёмная сторона. Как говорится в моей любимой цитате: «ИИ – как ребёнок: он повторяет наши ошибки, но учится быстрее». И если этот «ребёнок» знает слишком много, он может наделать неприятностей там, где его об этом не просили.

Узкоспециализированные модели имеют несколько преимуществ:

  • Безопасность: меньше знаний – меньше возможностей для злоупотреблений
  • Эффективность: зачем тратить ресурсы на то, что не нужно
  • Предсказуемость: проще понять, что модель умеет и чего не умеет

Но вот незадача: создать такого «забывчивого» специалиста оказывается непросто.

Проблема иерархии: нельзя научиться бегать, не научившись ходить

Исследователи провели интересный эксперимент с синтетической задачей, которую назвали CMSP. Представьте себе конструктор LEGO, где есть простые детали и сложные модели, собранные из этих деталей.

Выяснилось удивительное: нейросеть не может научиться собирать сложные модели, если сначала не изучит простые детали. Это как пытаться научить человека играть симфонию Бетховена, не показав ему сначала, где находятся клавиши на пианино.

Получается парадокс: чтобы создать узкого специалиста, нужно сначала обучить широкого эрудита, а потом заставить его «забыть» всё лишнее.

Нейроны-коммуналки: почему ИИ трудно забывать

Представьте общежитие, где в каждой комнате живут студенты с разных факультетов. Один сосед изучает математику, другой – литературу, третий – биологию. И все они постоянно болтают друг с другом, обмениваются знаниями.

Именно так устроен мозг нейросети. Один нейрон может одновременно участвовать в распознавании кошек, решении математических задач и переводе текстов. Это называется «нелокальность представлений» – научный термин для того, что знания размазаны по всей сети.

Из-за этого «выселить» одного студента (удалить один навык) практически невозможно, не потревожив остальных соседей.

Три способа создать забывчивого гения

Исследователи протестировали несколько подходов к созданию узкоспециализированных моделей:

1. Обрезка (Pruning)

Это как генеральная уборка в квартире: выбрасываем всё, что кажется ненужным. Смотрим на каждый нейрон и спрашиваем: «А ты-то зачем здесь?» Если внятного ответа нет – в мусорку.

Правда, иногда случается как с той футболкой, которую выбросили, а она оказалась нужной для костюма на корпоратив.

2. Дистилляция

Представьте, что опытный мастер учит ученика. Большая модель показывает маленькой, как нужно отвечать на вопросы. Маленькая старается повторить, но у неё меньше «памяти», поэтому она запоминает только самое важное.

3. Регуляризация + обрезка

Это самый хитрый подход. Сначала мы «воспитываем» нейросеть так, чтобы она сама группировала похожие знания вместе. Как научить детей убирать игрушки по коробкам: машинки к машинкам, куклы к куклам. А потом уже проще выбросить целую коробку.

Что показали эксперименты?

Исследователи протестировали свои методы на нескольких задачах – от простого распознавания цифр до работы с кодом на Python. Результаты оказались неожиданными:

В задаче с цифрами MNIST: Методы обрезки оказались эффективнее, чем обучение специализированной модели с нуля или дистилляция. Особенно когда данных мало, а требования к размеру модели жёсткие.

В работе с Python-кодом: И здесь обрезка + дообучение показали лучшие результаты. Причём иногда даже случайная обрезка работала не хуже «умной» – что говорит о том, что знания действительно размазаны по всей сети.

Парадокс современного ИИ

Мы живём в эпоху парадокса. С одной стороны, создаём всё более универсальные модели, которые умеют практически всё. С другой – понимаем, что для многих задач нужны узкие специалисты.

Это немного напоминает ситуацию с энциклопедией из «Пиратов Карибского моря» – там была волшебная книга, которая знала ответы на все вопросы. Но иногда капитану Джеку нужна была не вся книга, а только одна страничка с картой сокровищ.

Что дальше?

Исследование показало, что создание эффективных узкоспециализированных моделей – это не просто техническая задача, а фундаментальная проблема того, как устроен искусственный интеллект.

Если окажется, что интеллект – это действительно набор отдельных «цепочек» для разных навыков, то мы сможем их аккуратно разделять. Но если интеллект – это единый алгоритм, то создание по-настоящему узких, но мощных моделей может оказаться невыполнимой задачей.

Пока что самый надёжный способ – это научить модель всему, а потом осторожно помочь ей забыть ненужное. Как учитель, который сначала даёт студенту широкое образование, а потом помогает сосредоточиться на специализации.

И знаете что? Возможно, это не баг, а фича. Может быть, настоящий интеллект – искусственный или естественный – по своей природе должен быть универсальным. А попытки его сузить – это как попытка научить Шерлока Холмса забыть всё, кроме методов дедукции. Получится ли у нас тогда тот же Холмс?

Авторы оригинальной статьи : Eric J. Michaud, Asher Parker-Sartori, Max Tegmark
arxiv.org
GPT-4-turbo
Claude Sonnet 4
Предыдущая статья Технеций против правил: когда атомы не хотят играть по сценарию Следующая статья Можно ли научить ИИ понимать разговоры клеток?

Статьи NeuraBooks рождаются
в диалоге человека и ИИ

Сервис GetAtom даст вам те же возможности: создавайте тексты, визуалы и аудио вместе с нейросетью – легко и вдохновляюще.

Создать свой контент

+ получить в подарок
100 атомов за регистрацию

Лаборатория

Вам может быть интересно

Перейти к статьям

Компьютерная наука

Как обмануть ИИ‑рецензента: скрытые команды в научных статьях работают (но не на всех языках)

Исследователи проверили, можно ли манипулировать ИИ‑рецензентом научных статей с помощью скрытых команд на разных языках – и результаты оказались тревожными.

Компьютерная наука

Танцуя с хаосом: как случайные уравнения учат машины понимать время

Представьте, что нейросеть учится у времени танцевать самбу — не запоминая каждый шаг, а улавливая ритм. Именно так работают случайные дифференциальные уравнения.

Компьютерная наука

Обобщение обобщений: когда нейросети учатся предсказывать, но не то, что мы думали

Разбираемся, почему успех языковой модели на одном тесте вне обучения не гарантирует ей победу на другом – и что это значит для реального применения ИИ.

Хотите глубже погрузиться в мир
нейротворчества?

Первыми узнавайте о новых книгах, статьях и экспериментах с ИИ в нашем Telegram-канале!

Подписаться