Что мы называем искусственным интеллектом

Почему ИИ не обладает разумом и сознанием

ИИ – это не разум и не сознание

Современные системы ИИ имитируют мышление, но не обладают им. В статье разбираются ключевые понятия – мышление, сознание, квалиа – и объясняется, почему статистическая обработка символов принципиально отличается от подлинного понимания. Аргументация строится на мысленном эксперименте «Китайская комната» и критике аналогии между нейросетью и человеческим мозгом.

Эффект антропоморфизма в общении с нейросетями

Когда машина «говорит» – мы слышим человека

Когда языковая модель отвечает развёрнуто, уверенно и уместно, у большинства людей возникает стойкое ощущение: за текстом кто-то есть. Кто-то, кто понимает вопрос, обдумывает ответ и, возможно, сопереживает собеседнику. Это чувство естественно. Человеческий мозг эволюционно настроен искать признаки разума в окружающем мире и находить их даже там, где они отсутствуют.

Антропоморфизация – наделение неживых объектов человеческими качествами – в случае с ИИ происходит особенно легко. Системы говорят на нашем языке, используют привычные обороты и воспроизводят структуры нашего мышления. Именно поэтому граница между «похоже на разум» и «является разумом» размывается быстро и незаметно.

Эта статья не о том, что ИИ бесполезен или опасен. Она о другом: точное понимание природы этих систем важнее красивых метафор. Слова «мышление», «понимание» и «сознание» применительно к современным моделям часто используются некорректно.

Определение мышления и сознания с точки зрения когнитивистики

Что такое мышление и сознание

Прежде чем рассуждать о том, чего у ИИ нет, стоит разобраться в самих понятиях.

Мышление в широком смысле – это процесс обработки информации, направленный на решение задач, формулирование выводов и построение новых представлений о мире. Однако человеческое мышление не сводится к манипуляции данными. Оно включает целеполагание, осознание собственного существования, связь с телом и эмоциями, а также память как непрерывный нарратив, а не просто массив записей. Человек думает в контексте ситуации: он находится в мире, у него есть история, потребности и страхи. Мышление неразрывно встроено в жизнь.

Сознание – понятие ещё более сложное. В философии и когнитивных науках оно описывает субъективный опыт: то, каково это – быть кем-то. Видеть красный цвет, чувствовать боль, испытывать любопытство. Исследователи называют это «квалиа» – внутренние субъективные состояния, которые невозможно полностью передать через описание. Томас Нагель в своё время задался вопросом: «Каково это – быть летучей мышью?». Смысл в том, что даже детальное описание нейронных процессов в мозге животного не позволит нам узнать, как ощущается его опыт изнутри.

Сознание предполагает наличие «точки зрения» – субъекта, которому что-то дано в опыте. Без субъекта нет сознания, остаются лишь процессы.

Именно здесь пролегает принципиальная граница между человеком и любой современной вычислительной системой.

Принципы работы и обучения языковых моделей

Как работает ИИ

Современные языковые модели – это статистические системы, обученные на огромных массивах текста. Их задача – предсказывать, какой токен (слово или его фрагмент) с наибольшей вероятностью следует за предыдущими в данном контексте. Именно это, и ничего более, лежит в основе процесса, который выглядит как «общение».

В процессе обучения модель не усваивает смыслы. Она выявляет статистические зависимости между символами, словами и фразами. Алгоритм обнаруживает, что после слова «столица» часто следует название города, что на вопрос «как дела?» обычно отвечают «хорошо», а в научных статьях определённые термины соседствуют друг с другом. Из миллиардов таких закономерностей складывается способность генерировать связный и кажущийся осмысленным текст.

Никакой модели мира при этом не возникает. У системы нет внутреннего представления о том, что такое «столица» как концепт, зачем люди интересуются делами друг друга и что стоит за научными терминами. Существует лишь сложная многоуровневая структура весов, которая преобразует одни последовательности символов в другие.

Важно понимать: это не упрёк технологии, а описание её устройства. Нейросеть делает именно то, для чего создана, и делает это поразительно хорошо. Но «умело имитировать связную речь» и «понимать» – это принципиально разные вещи.

Эксперимент Китайская комната и отсутствие семантики в ИИ

Имитация понимания

Один из самых известных мысленных экспериментов в философии сознания – «Китайская комната» Джона Сёрла. Представьте человека, запертого в комнате. Через щель ему передают листки с китайскими иероглифами. У него есть подробная инструкция: получив определённый набор символов, нужно ответить другим набором. Человек не знает китайского языка, он просто следует правилам. Снаружи кажется, что комната «понимает» язык – ответы верны и уместны. Но внутри понимания нет.

Сёрл использовал этот пример, чтобы показать: синтаксис (формальные правила обработки символов) не порождает семантику (смысловое содержание). Система может оперировать символами корректно, не имея ни малейшего представления об их значении.

Современные языковые модели – это, по существу, чрезвычайно сложная версия такой комнаты. Только вместо человека с инструкцией выступают миллиарды параметров, а вместо листков – токены. Правила не записаны явно, они извлечены из данных. Но принцип неизменен: система оперирует структурами, не имея доступа к тому, на что эти структуры указывают.

Когда модель пишет «Я понимаю вашу озабоченность» – это не выражение внутреннего состояния, а воспроизведение паттерна, который часто встречался в обучающих данных. Когда она «рассуждает» на сложную тему – это развёртывание статистически вероятных переходов между фрагментами текста, а не движение мысли от предпосылок к выводу.

Разница заключается не в качестве результата, а в самой природе процесса.

Различия между биологическим мозгом и искусственной нейросетью

Границы аналогии с мозгом

Нередко можно услышать: «Но ведь нейросеть устроена как мозг – нейроны, связи, веса. Разве это не одно и то же?»

Эта аналогия поверхностна. Искусственные нейронные сети действительно были вдохновлены упрощёнными моделями биологических нейронов, но сходство ограничивается лишь метафорой.

Биологический нейрон – это живая клетка с обменом веществ, электрохимическими процессами и зависимостью от состояния всего организма. Он существует в теле, которое находится в среде, имеет потребности и взаимодействует с миром через действия и их последствия. Мозг не обрабатывает информацию в вакууме – он регулирует поведение живого существа, встроенного в физическую и социальную реальность.

Искусственный нейрон представляет собой математическую функцию. Он принимает числа на вход, применяет к ним операцию и передаёт результат на выход. Никакой биохимии, тела или среды. Сеть из таких функций – это вычислительный граф, а не живой орган.

Мозг формирует смысл через связь с опытом: мы знаем, что такое «горячо», потому что обжигались; понимаем «одиночество», потому что чувствовали его. Языковая модель никогда ничего не переживала. У неё нет тела, нет непрерывного существования во времени и нет ощущений. Она не знает, что такое «горячо», – она знает лишь, в каких контекстах это слово встречается в текстах.

Ещё одно различие – целостность. Мозг работает как единая система, где когнитивные, эмоциональные и физиологические процессы неразрывно связаны. Нейросеть – это набор операций над матрицами чисел. Между ними нет ничего, кроме математики.

Это не делает нейросети менее полезными, но означает, что называть их «электронным мозгом» или «искусственным разумом» – значит использовать метафору там, где необходима научная строгость.

Итоги: как правильно воспринимать возможности искусственного интеллекта

Краткий вывод

Современные ИИ-системы – выдающееся достижение инженерной мысли. Они решают задачи, которые ещё недавно казались исключительной прерогативой человека: пишут тексты, анализируют данные, переводят, программируют и синтезируют информацию. Это реальная ценность, которую не стоит преуменьшать.

Но за этими возможностями не стоит ни мышления, ни сознания, ни понимания в том смысле, который мы вкладываем в эти слова применительно к людям. ИИ работает с паттернами символов, вероятностными зависимостями и математическими операциями. Он не осознаёт, о чём говорит, не проживает разговор и не обладает точкой зрения.

Это важно понимать не для того, чтобы «разоблачить» технологию, а для того, чтобы использовать её грамотно: без избыточного доверия там, где нужна критическая проверка; без ожидания эмпатии там, где её нет; без страха перед «пробуждением» того, чему принципиально не из чего пробуждаться.

Точный язык – основа точного мышления. И когда мы говорим об ИИ, важно различать: «работает так, будто понимает» и «действительно понимает». Между этими формулировками – принципиальная разница.

Предыдущая статья 1. Почему термин «искусственный интеллект» вводит в заблуждение Что мы называем искусственным интеллектом Следующая статья 3. Алгоритмы, машинное обучение и ИИ: где проходят границы Что мы называем искусственным интеллектом