Опубликовано

Как научить компьютер объясняться по-человечески: психология доверия к искусственному интеллекту

Изабель Мартин рассказывает, почему умные алгоритмы часто кажутся нам «черными ящиками» и как психология поможет сделать их решения понятными.

Финансы и экономика
DeepSeek-V3
Leonardo Phoenix 1.0
Автор: Доктор Изабель Мартин Время чтения: 8 – 11 минут

Историческая перспектива

73%

Междисциплинарность

84%

Актуальность

90%
Оригинальное название: Bridging Human Cognition and AI: A Framework for Explainable Decision-Making Systems
Дата публикации статьи: 2 сен 2025

Представьте: вы подаёте заявку на кредит, и банковская система вам отказывает. Причина? «Модель машинного обучения определила высокий риск». А что это значит? Никто не объясняет. Вы чувствуете себя как перед судьёй, который выносит приговор, но молчит о мотивах. Это и есть главная проблема современного искусственного интеллекта – он умеет принимать решения, но не умеет их объяснять так, чтобы мы ему поверили.

Иллюзия прозрачности: когда больше информации – меньше понимания

Крупные технологические компании уже осознали проблему и создают инструменты «объяснимого ИИ». SHAP, LIME, контрфактический анализ – эти аббревиатуры звучат как заклинания из мира данных. Но есть одна загвоздка: они показывают, как работает алгоритм, но не объясняют, почему мы должны ему доверять.

Это как если бы врач, ставя диагноз, показал вам рентгеновский снимок и сказал: «Видите эти тени? Вот они и определяют ваше состояние». Технически всё правильно, но вы по-прежнему не понимаете, что с вами происходит. Мы путаем прозрачность с пониманием – классическая ошибка, которую совершают не только в IT, но и в экономике.

Помните, как в 2008 году банки «прозрачно» публиковали сложнейшие отчёты о своих ипотечных продуктах? Все цифры были на виду, но суть риска оставалась скрытой. Результат известен всем. С искусственным интеллектом мы рискуем повторить ту же ошибку, только в гораздо больших масштабах.

Второй капкан: одно объяснение для всех

Ещё одно заблуждение – вера в то, что одно и то же хорошее объяснение подходит всем. Это как предполагать, что детям и взрослым можно одинаково рассказывать о том, откуда берутся дети. Кредитный аналитик с двадцатилетним стажем и клиент, впервые подающий заявку на заём, нуждаются в разных типах объяснений. Первому нужны статистические закономерности, второму – простые аналогии из жизни.

Но большинство систем ИИ работают по принципу «один размер для всех». В результате специалисты получают слишком упрощённые объяснения и теряют доверие к системе, а обычные пользователи тонут в технических деталях и тоже не верят алгоритму. Получается парадокс: чем больше мы стараемся объяснить, тем меньше нам доверяют.

Когнитивный мостик: как психология объясняет объяснения

Вот здесь на помощь приходит психология. Американский учёный Бертрам Малле ещё в начале 2000-х понял: люди объясняют поведение не хаотично, а по определённым когнитивным схемам. У нас есть внутренние «шаблоны» для понимания действий – и эти шаблоны можно использовать при создании объяснимых систем ИИ.

Малле выделил пять основных способов, которыми мы объясняем поведение: через знания и воспоминания, моделирование ситуаций, поиск закономерностей, прямые воспоминания и рационализацию. Но ещё важнее его базовое разделение: мы по-разному объясняем то, что видим (наблюдаемое), и то, что скрыто от глаз (ненаблюдаемое). А также по-разному воспринимаем намеренные действия и случайные события.

Представьте двух людей на вечеринке. Один случайно роняет бокал – мы объясняем это неловкостью или скользким полом. Другой специально бросает бокал на пол – здесь мы ищем мотивы: злость, демонстративность, провокацию. С искусственным интеллектом происходит то же самое. Когда система принимает решение, мы подсознательно решаем: это была «случайность» или «намерение»? И в зависимости от ответа ожидаем разные типы объяснений.

Четыре типа поведения и доверия

Объединив наблюдаемость с намеренностью, мы получаем четыре категории поведения:

Действия – то, что мы видим и что кажется намеренным. Например, система рекомендаций показывает вам конкретный фильм. Вы видите результат и предполагаете, что алгоритм «хотел» именно это предложить. Здесь нужны объяснения типа «система выбрала этот фильм, потому что...»

Поведения – видимые, но случайные события. Сервис выдал странную рекомендацию, которая не подходит вашим вкусам. Это воспринимается как сбой, и объяснение должно признавать неопределённость: «иногда система ошибается из-за...»

Намеренные мысли – скрытые, но целенаправленные процессы. Система анализирует ваши данные для выявления новых закономерностей. Мы не видим самого процесса, но верим, что алгоритм «размышляет» логично. Объяснение фокусируется на методологии: «система использует такой подход...»

Опыт – скрытые и непредсказуемые процессы. Генеративная модель создаёт текст или изображение. Результат уникален, процесс непрозрачен, исход непредсказуем. Здесь нужны объяснения через аналогии с человеческим творчеством: «как художник черпает вдохновение...»

На практике чаще всего встречаются два крайних случая: действия и опыт. Именно они критически важны для построения доверия. Действия требуют логических, причинно-следственных объяснений. Опыт лучше объяснять через примеры, аналогии и контекст.

Кредитный скоринг: когда ИИ играет роль коллеги

Возьмём конкретный пример – кредитное решение. Банковский сотрудник работает с системой оценки заёмщиков. Для него алгоритм – это коллега, более опытный аналитик, который помогает принимать решения. Сотрудник воспринимает работу системы как действия: осмысленные, намеренные, основанные на логике.

В этом случае эффективны объяснения трёх типов:

Исторические объяснения: «Заёмщики с похожими характеристиками в 73% случаев исправно выплачивали кредиты». Это показывает, как прошлый опыт влияет на текущее решение.

Причинные объяснения: «Основные факторы риска – низкий доход по отношению к запрашиваемой сумме и нестабильная кредитная история». Это отвечает на вопрос «почему именно так?»

Объяснения через условия: «При увеличении первоначального взноса до 30% риск снижается до приемлемого уровня». Это показывает, что можно изменить для получения положительного решения.

А вот что НЕ работает в этом контексте: абстрактные графики важности признаков, статистические корреляции без привязки к реальным случаям, вероятностные оценки без объяснения их смысла. Такие объяснения могут быть технически корректными, но они не соответствуют тому, как кредитный аналитик привык думать о рисках.

Интересно, что та же система для самого заёмщика должна работать по-другому. Клиент не воспринимает алгоритм как коллегу – для него это скорее «экспертиза». Здесь нужны более простые объяснения через аналогии: «Ваш кредитный профиль похож на профиль человека, который...» или «Представьте, что банк – это осторожный друг, который одалживает деньги...»

Анализ документов: когда ИИ исследует неизвестное

Совершенно другой случай – использование больших языковых моделей для анализа документов. Юрист загружает контракт и просит систему найти потенциальные риски. Здесь нет «правильного» ответа, который можно проверить по учебнику. Система исследует документ так же, как это делал бы человек, – через интерпретацию, сопоставление с опытом, поиск аналогий.

Это категория опыта: результат непредсказуем, процесс творческий, исход зависит от множества факторов. Пользователь не ждёт от системы логического обоснования в духе «система выбрала этот риск, потому что коэффициент важности равен 0.84». Вместо этого нужны объяснения через источники и контекст.

Наиболее эффективный метод здесь – прямое воспоминание. Система должна показывать, на какие конкретные фрагменты документа она опирается: «В пункте 3.2 упоминается условие, которое может быть истолковано как...» или «Формулировка в разделе о гарантиях напоминает случай из дела „Рено» против „Лион Креди Банк»...»

Ключевое отличие от кредитного скоринга: здесь важны не закономерности, а источники. Пользователь должен иметь возможность «проследить путь» от выводов системы обратно к исходному тексту. Это создаёт ощущение, что ИИ не придумывает ответы, а действительно «читает» документы так же внимательно, как это сделал бы опытный юрист.

Персонализация объяснений: один алгоритм, много лиц

Самое интересное открытие этого подхода: один и тот же алгоритм может восприниматься по-разному в зависимости от опыта пользователя. Новичок видит в системе кредитного скоринга опыт – загадочный процесс, который нужно принимать на веру. Эксперт видит действие – логическую последовательность, которую можно анализировать и критиковать.

Это значит, что объяснения должны подстраиваться не только под задачу, но и под квалификацию пользователя. Начинающему кредитному аналитику нужны образовательные объяснения с примерами: «Обычно заёмщики со стажем работы менее года считаются более рискованными, потому что...» Опытному аналитику достаточно указать на статистические закономерности: «Данные за последние пять лет показывают корреляцию 0.67 между стажем и вероятностью дефолта».

Техническая реализация этого принципа требует создания пользовательских профилей и адаптивных интерфейсов. Система должна «запоминать», какие типы объяснений предпочитает конкретный пользователь, и постепенно настраивать стиль коммуникации. Это похоже на то, как хороший преподаватель адаптируется к аудитории: объясняет сложные концепции студентам-первокурсникам через простые аналогии, а магистрантам даёт сразу научные определения.

Доверие как социальный контракт

Но за всеми техническими решениями скрывается более глубокая проблема: доверие к искусственному интеллекту – это социальный, а не технический феномен. Мы доверяем ИИ не потому, что понимаем алгоритмы, а потому, что система ведёт себя предсказуемо и честно.

Подумайте о том, как вы доверяете врачу. Вы же не требуете от доктора объяснить вам механизм действия каждого назначенного лекарства на молекулярном уровне? Доверие строится через профессиональное поведение: врач задаёт правильные вопросы, учитывает вашу историю болезни, объясняет риски понятным языком, признаёт границы своих знаний.

То же самое с ИИ. Пользователи начинают доверять системе, когда она:

  • Признаёт неопределённость там, где она действительно существует
  • Показывает источники своих выводов
  • Объясняет ограничения своих возможностей
  • Ведёт себя последовательно в похожих ситуациях
  • «Помнит» предыдущие взаимодействия и учится на ошибках

Практические рекомендации: как построить объяснимый ИИ

Из этого исследования вытекает несколько конкретных рекомендаций для создания систем, которым люди действительно доверяют:

Для задач типа «действие» (кредитный скоринг, медицинская диагностика, оценка рисков):

  • Используйте исторические примеры и статистические закономерности
  • Покажите ключевые факторы решения в порядке важности
  • Объясните, что нужно изменить для получения другого результата
  • Избегайте абстрактных корреляций без практического смысла

Для задач типа «опыт» (анализ документов, генерация контента, исследование данных):

  • Всегда указывайте источники и основания для выводов
  • Используйте аналогии с человеческими процессами мышления
  • Признавайте границы достоверности результатов
  • Предоставляйте альтернативные интерпретации

Для адаптации к пользователю:

  • Создавайте профили пользователей с учётом их экспертизы
  • Предлагайте разные уровни детализации объяснений
  • Запоминайте предпочтения в стиле коммуникации
  • Позволяйте пользователям выбирать формат объяснений

Будущее объяснимого ИИ: от техники к психологии

Это исследование показывает важный сдвиг в понимании проблемы объяснимости. Мы движемся от вопроса «Как технически объяснить работу алгоритма?» к вопросу «Как психологически корректно построить доверие между человеком и машиной?»

Следующий этап развития – создание систем, которые автоматически выбирают стиль объяснения в зависимости от задачи и пользователя. Представьте ИИ-ассистента, который может переключаться между ролью «опытного коллеги», «внимательного исследователя» и «терпеливого учителя» в зависимости от ситуации. Такие системы будут не просто технически точными – они будут социально грамотными.

Но самое важное заключается в том, что объяснимость – это не технологическая проблема, которую можно решить новым алгоритмом. Это фундаментальный вопрос о том, как люди и машины будут сотрудничать в будущем. И ответ на него лежит не в коде, а в понимании того, как устроен человеческий разум.

Деньги существуют только потому, что мы в них верим, – и доверие к искусственному интеллекту работает по тому же принципу. Мы доверяем не алгоритмам, а нашему пониманию того, что эти алгоритмы делают то, что мы от них ожидаем. И пока мы не научимся формировать это понимание, самые совершенные технические объяснения останутся бесполезными.

Авторы оригинальной статьи : N. Jean, G. Le Pera
arxiv.org
GPT-5
Claude Sonnet 4
Gemini 2.5 Pro
Предыдущая статья Как мы учим компьютеры различать настоящие голоса от подделок: проблема многоязычных дипфейков Следующая статья Квантовый вальс спинов: как невидимое взаимодействие управляет магнитными парами

Статьи NeuraBooks рождаются
в диалоге человека и ИИ

Сервис GetAtom даст вам те же возможности: создавайте тексты, визуалы и аудио вместе с нейросетью – легко и вдохновляюще.

Создать свой контент

+ получить в подарок
100 атомов за регистрацию

Лаборатория

Вам может быть интересно

Перейти к статьям

Финансы и экономика

Почему у случайности бывает только одна судьба? Разгадка через призму неразложимости

Как математическое свойство неразложимости объясняет, почему стохастическая система приходит к единственному стабильному состоянию, и при чём тут наша любовь к предсказуемости.

Финансы и экономика

Когда искусственный интеллект подглядывает в будущее: почему прогнозы нейросетей могут быть иллюзией

Исследование показывает: языковые модели часто не предсказывают будущее, а воспроизводят его из своей памяти – и это меняет всё наше представление об их возможностях.

Финансы и экономика

Почему слишком много умных в одной комнате делает всех беднее? Парадокс научных альянсов

Исследование показывает: когда продуктивные компании объединяются, это может снижать общественное благосостояние — история о том, как неравенство в талантах разрушает сотрудничество.

Хотите глубже погрузиться в мир
нейротворчества?

Первыми узнавайте о новых книгах, статьях и экспериментах с ИИ в нашем Telegram-канале!

Подписаться