Опубликовано

Как языковые модели формируют экономические ожидания подобно людям

Доверяет ли искусственный интеллект своим глазам больше, чем статистике центробанка?

Исследование показывает: языковые модели формируют экономические ожидания так же иррационально, как и люди, отдавая предпочтение личному опыту перед официальными данными.

Финансы и экономика
Автор публикации: Профессор Эмиль Дюбуа Время чтения: 9 – 13 минут
«Я написал эту статью, потому что меня давно интриговал вопрос: можно ли научить машину думать рационально, если она училась на текстах, написанных иррациональными людьми? Результат оказался предсказуемо парадоксальным – искусственный интеллект впитал наши предубеждения с пугающей точностью. Теперь мне интересно, что подумают читатели: увидят ли они в этом зеркало своих собственных слабостей или будут настаивать, что они-то точно рациональнее алгоритма?» – Профессор Эмиль Дюбуа

Представьте себе такую сцену: вы стоите у кассы в супермаркете, замечаете, что молоко подорожало на двадцать процентов, и в этот самый момент по радио объявляют, что инфляция в стране составляет всего три процента. Чему вы поверите? Своему кошельку или голосу диктора? Если вы похожи на большинство людей – а теперь выясняется, что и на большинство языковых моделей – вы поверите кошельку. Это не просто человеческая слабость; это фундаментальная особенность того, как мы обрабатываем информацию о будущем.

Недавнее исследование, проведённое группой учёных, изучающих поведение больших языковых моделей в роли экономических агентов, обнаружило нечто удивительное: искусственный интеллект формирует ожидания о будущем почти так же иррационально, как это делаем мы. Когда GPT-4 просили сыграть роль главы домохозяйства или генерального директора компании, модель систематически отклонялась от того, что экономисты называют «рациональным обновлением убеждений». Она переоценивала одну информацию, недооценивала другую и вела себя так, будто у неё есть предубеждения, эмоции и ограниченная способность одновременно обрабатывать несколько потоков данных.

Как формируются экономические ожидания в обществе

Коллективная галлюцинация, которая учится на своих ошибках

Деньги – это коллективная галлюцинация, как я люблю повторять. Но ожидания относительно денег – это галлюцинация ещё более тонкая. Мы все живём внутри облака предположений о том, что будет с ценами, зарплатами, прибылями и процентными ставками. И это облако определяет наши решения: покупать ли новый автомобиль, брать ли кредит, инвестировать ли в акции. Центральные банки тратят миллиарды на то, чтобы управлять этим облаком, но до сих пор никто точно не знал, как именно люди формируют свои ожидания.

Теперь на сцену выходят большие языковые модели. Обученные на терабайтах текстов – от новостей и научных статей до форумов и блогов – они научились имитировать человеческие рассуждения с пугающей точностью. Исследователи решили использовать их как лабораторных крыс: создать контролируемую среду, где можно точно дозировать информацию и наблюдать, как меняются ожидания. Это то, что невозможно сделать с реальными людьми без огромных затрат и этических компромиссов.

Фильтр Калмана: когда математика встречает человеческую психику

Чтобы понять, что происходит внутри «головы» языковой модели, учёные воспользовались инструментом под названием «фильтр Калмана». Эта математическая конструкция, разработанная ещё в шестидесятых годах двадцатого века для задач навигации космических аппаратов. Её суть проста: у вас есть предыдущее убеждение о чём-то (например, что инфляция будет четыре процента), затем вы получаете новый сигнал (новость, что цены выросли на пять процентов), и вам нужно обновить своё убеждение, объединив старое и новое.

В идеальном мире рациональный агент взвесил бы эти два элемента оптимально: если новый сигнал надёжен, он получит больший вес; если он шумный и ненадёжный – меньший. Сумма всех весов должна быть равна единице, как в хорошо сбалансированном портфеле. Но люди – и, как оказалось, языковые модели – не идеальны. Они переоценивают одно, недооценивают другое, а иногда просто игнорируют часть информации, потому что устали или отвлеклись.

Поведенческий фильтр Калмана – это та же самая математическая схема, но с добавлением «человеческих» искажений. Он позволяет весам отклоняться от единицы, сигналам получать разную значимость, а агентам вести себя так, как они ведут себя в реальности: иррационально, эгоцентрично, с ограниченным вниманием.

Эксперимент: домохозяйства против генеральных директоров

Исследователи провели два набора экспериментов. В первом языковая модель играла роль обычного домохозяйства, которое пытается предсказать будущую инфляцию. Ей давали начальное убеждение – скажем, что инфляция будет три процента. Затем предоставляли два типа сигналов: индивидуальный (например, «вы заметили, что цены на продукты в вашем районе выросли на семь процентов») и агрегированный (например, «центральный банк сообщил, что национальная инфляция составляет четыре процента»).

Во втором наборе экспериментов модель выступала в роли генерального директора компании, который формирует ожидания о будущих продажах. Ему тоже давали начальное убеждение, индивидуальный сигнал (внутренние данные о продажах фирмы) и агрегированный сигнал (общие экономические прогнозы или отраслевые тенденции).

Учёные варьировали величину и направление сигналов, создавали ситуации, где они противоречили друг другу, и наблюдали, как модель обновляет свои ожидания. Затем они извлекли числа и оценили параметры поведенческого фильтра Калмана методом наименьших квадратов – классическим статистическим подходом.

Четыре открытия о формировании ожиданий у языковых моделей

Четыре открытия, которые меняют картину

Первое: сумма весов не равна единице

В идеальном мире рационального агента вес прошлого убеждения плюс вес нового сигнала должны в сумме давать единицу. Это означает, что вся информация учтена корректно, без перекосов. Но языковые модели систематически отклонялись от этого правила. Домохозяйства перереагировали: сумма весов была больше единицы, что указывает на чрезмерную уверенность или излишнюю чувствительность к новостям. Генеральные директора были ближе к норме, но тоже не идеальны – иногда они недореагировали, иногда тоже перереагировали.

Это не просто техническая деталь. Это означает, что языковые модели, как и люди, не умеют корректно взвешивать информацию. Они либо слишком сильно качаются под ветром новостей, либо слишком упрямо держатся за старые убеждения.

Второе: личный опыт побеждает статистику

Самая яркая закономерность: и домохозяйства, и генеральные директора придавали значительно больший вес индивидуальным сигналам, чем агрегированным. Иногда в два-три раза больший. Если модель в роли домохозяйства видела, что молоко подорожало на десять процентов, она верила этому больше, чем официальному отчёту о трёхпроцентной инфляции. Если модель в роли генерального директора получала внутренние данные о падении продаж, она реагировала на них сильнее, чем на макроэкономические прогнозы роста.

Почему это важно? Потому что это объясняет, почему центральные банки так часто терпят неудачу в управлении ожиданиями. Они публикуют красивые графики и таблицы, проводят пресс-конференции, выступают с заявлениями. Но обычный человек верит своему кошельку больше, чем словам главы центробанка. И языковая модель, обученная на текстах, написанных людьми, впитала этот же паттерн.

Третье: когда сигналов много, каждый теряет силу

Исследователи обнаружили отрицательное взаимодействие между одновременными сигналами. Это означает, что когда модель получала и индивидуальный, и агрегированный сигнал одновременно, каждый из них получал меньший вес, чем если бы он был представлен изолированно. Присутствие нескольких источников информации не усиливало общий эффект – оно его размывало.

Это похоже на когнитивную перегрузку: когда на вас сваливается слишком много разнородной информации, вы не можете обработать её всю эффективно. Вы начинаете игнорировать часть данных или снижаете доверие к каждому отдельному источнику. Языковые модели демонстрируют ту же самую слабость. Это «разбавление внимания» – эффект, который имеет прямые последствия для коммуникационной политики. Если вы бомбардируете аудиторию множеством разных сообщений одновременно, вы можете непреднамеренно снизить воздействие каждого из них.

Четвёртое: домохозяйства и директора думают по-разному

Хотя общие паттерны были схожи, между домохозяйствами и генеральными директорами обнаружились существенные различия. Домохозяйства были более эмоциональными, более чувствительными к личному опыту, более склонными к перереагированию. Генеральные директора вели себя более сдержанно, взвешенно, ближе к рациональной норме. Их эффект взаимодействия между сигналами был слабее.

Это тоже имеет смысл: роль главы компании требует более аналитического подхода, способности учитывать как внутренние, так и внешние факторы. Домохозяйство же живёт в мире непосредственного опыта – цен на молоко, бензин, квартплату. У него нет ни времени, ни ресурсов на то, чтобы погружаться в макроэкономические отчёты.

Можно ли вылечить искусственный интеллект от иррациональности?

Учёные задались вопросом: если языковые модели демонстрируют поведенческие искажения, можно ли их «исправить»? Они взяли модель GPT-4 и применили технику под названием LoRA – низкоранговую адаптацию (Low-Rank Adaptation), которая позволяет тонко настроить модель на основе нового набора данных без полного переобучения. Модель обучили на примерах более рационального обновления ожиданий, где веса были ближе к оптимальным значениям.

Результаты оказались обнадёживающими, но не идеальными. Тонкая настройка действительно сгладила некоторые искажения: сумма весов приблизилась к единице, предпочтение индивидуальных сигналов уменьшилось. Но полностью устранить все отклонения не удалось. Эффект отрицательного взаимодействия остался значимым, хотя и ослабел. Это говорит о том, что некоторые паттерны глубоко укоренены в архитектуре модели или в структуре обучающих данных.

Иными словами, можно сделать искусственный интеллект чуть более рациональным, но нельзя полностью вытравить из него те же самые слабости, которые присущи людям, написавшим тексты, на которых он обучался.

Что исследование языковых моделей говорит о человеческом поведении

Зеркало, которое отражает наши страхи

Что всё это означает для нас – для людей, живущих в мире, где искусственный интеллект становится всё более важным игроком в экономике? Во-первых, это означает, что языковые модели не являются идеально рациональными агентами. Они не заменят человеческие предубеждения более чистой логикой. Они воспроизводят наши же искажения, потому что обучены на нашей культуре, нашей истории, наших текстах.

Во-вторых, это проливает свет на то, почему экономическая политика так часто не работает, как задумано. Если даже искусственный интеллект, лишённый эмоций и биологических ограничений, всё равно предпочитает личный опыт официальной статистике, что говорить о реальных людях? Центральные банки могут публиковать сколько угодно отчётов о низкой инфляции, но если у людей в кошельках становится меньше денег, они не поверят этим отчётам. И никакое количество пресс-конференций это не изменит.

В-третьих, эффект разбавления информации напоминает нам об опасности перегрузки. Мы живём в эпоху информационного изобилия, когда на нас каждый день сваливаются тысячи сигналов – новости, прогнозы, мнения экспертов, комментарии в соцсетях. Это исследование показывает, что больше информации не всегда значит лучше. Иногда избыток данных просто снижает наше доверие к каждому отдельному источнику и мешает принимать взвешенные решения.

Как личный опыт влияет на экономические ожидания на протяжении веков

История повторяется, только платформы меняются

Я изучаю деньги и доверие уже несколько десятилетий, и меня всегда поражало, насколько устойчивы определённые человеческие паттерны. В семнадцатом веке голландцы верили, что луковицы тюльпанов будут расти в цене вечно, потому что видели, как их соседи богатеют на этом. В двадцатом веке американцы верили, что цены на недвижимость никогда не упадут, потому что видели, как растёт стоимость их собственных домов. В двадцать первом веке люди верят в биткоин, потому что видят истории успеха в интернете.

Всё это – варианты одного и того же феномена: доверие к личному опыту и историям, близким к нам, сильнее доверия к абстрактной статистике. Языковые модели впитали этот паттерн из миллиардов текстов, написанных людьми на протяжении веков. Они не изобрели его – они просто воспроизводят его с математической точностью.

Исследование поведенческого фильтра Калмана для языковых моделей – это не просто техническое упражнение. Это зеркало, которое показывает нам, как мы на самом деле думаем об экономике, деньгах и будущем. И это зеркало не особенно лестное. Мы иррациональны, эгоцентричны, подвержены когнитивным ограничениям. Но мы также адаптивны, способны учиться и меняться – пусть и не полностью.

Перспективы исследований языковых моделей в экономике

Что дальше?

Конечно, у этого исследования есть ограничения. Языковые модели – это не люди. Их «мозг» работает совершенно иначе, и их реакции могут отражать артефакты обучения, а не истинные когнитивные процессы. Поведенческий фильтр Калмана – это упрощение, которое не охватывает всю сложность человеческого мышления.

Но это начало. Будущие исследования могут сравнить поведение языковых моделей с реальными данными опросов ожиданий, чтобы проверить, насколько точно они имитируют человеческие предубеждения. Можно изучить, как разные формулировки и контексты влияют на формирование ожиданий. Можно применить эти методы к другим областям экономических решений – ценообразованию, инвестициям, выбору карьеры.

Самое интересное, что языковые модели позволяют проводить эксперименты, которые невозможны с реальными людьми. Можно создавать контрфактуальные сценарии, тестировать тысячи вариантов информационных политик, наблюдать за долгосрочными эффектами в сжатые сроки. Это открывает новую эру в экспериментальной экономике – эру, где лабораторными крысами становятся не студенты за небольшую плату, а алгоритмы, способные имитировать миллионы разных агентов.

Деньги всегда были коллективной галлюцинацией. Теперь у нас есть искусственные галлюцинаторы, которые могут помочь нам понять, почему мы верим в то, во что верим, и почему мы так часто ошибаемся в своих ожиданиях относительно будущего. Это не сделает нас полностью рациональными – но, возможно, сделает нас чуть более самосознающими.

А это уже немало.

Оригинальное название: Bridging Expectation Signals: LLM-Based Experiments and a Behavioral Kalman Filter Framework
Дата публикации статьи: 24 янв 2026
Авторы оригинальной статьи : Yu Wang, Xiangchen Liu
Предыдущая статья Симфония детерминантов: как матричные интегралы открывают двери к загадкам дзета-функции Римана Следующая статья Как распределить “мозг” между антеннами: новая архитектура для сетей без границ

От исследования к пониманию

Как создавался этот текст

Этот материал основан на реальном научном исследовании, а не сгенерирован «с нуля». В начале работы нейросети анализируют исходную публикацию: её цели, методы и выводы. Затем автор формирует связный текст, который сохраняет научный смысл, но переводит его из академического формата в ясное и читаемое изложение – без формул, но без потери точности.

Междисциплинарность

92%

Точность прогнозов

62%

Историческая перспектива

95%

Нейросети, участвовавшие в работе

Мы показываем, какие модели использовались на каждом этапе – от анализа исследования до редакторской проверки и создания иллюстрации. Каждая нейросеть выполняет свою роль: одни работают с источником, другие – с формулировками и структурой, третьи – с визуальным образом. Это позволяет сохранить прозрачность процесса и доверие к результату.

1.
Gemini 2.5 Flash Google DeepMind Резюмирование исследования Выделение ключевых идей и результатов

1. Резюмирование исследования

Выделение ключевых идей и результатов

Gemini 2.5 Flash Google DeepMind
2.
Claude Sonnet 4.5 Anthropic Создание текста на основе резюме Преобразование резюме в связное объяснение

2. Создание текста на основе резюме

Преобразование резюме в связное объяснение

Claude Sonnet 4.5 Anthropic
3.
Gemini 2.5 Flash Google DeepMind Редакторская проверка Исправление ошибок и уточнение выводов

3. Редакторская проверка

Исправление ошибок и уточнение выводов

Gemini 2.5 Flash Google DeepMind
4.
DeepSeek-V3.2 DeepSeek Подготовка описания для иллюстрации Генерация текстового промпта для визуальной модели

4. Подготовка описания для иллюстрации

Генерация текстового промпта для визуальной модели

DeepSeek-V3.2 DeepSeek
5.
FLUX.2 Pro Black Forest Labs Создание иллюстрации Генерация изображения по подготовленному промпту

5. Создание иллюстрации

Генерация изображения по подготовленному промпту

FLUX.2 Pro Black Forest Labs

Лаборатория

Вам может быть интересно

Войти в Лабораторию

Здесь собраны материалы из «Лаборатории», которые продолжают разговор: смежные исследования, близкие методы или идеи, помогающие глубже понять тему.

Финансы и экономика

Исследование о том, как наше нежелание заплатить больше в будущем заставляет умалчивать о мелких убытках сегодня, формируя невидимую экономику недосказанности.

Финансы и экономика

Как математическое свойство неразложимости объясняет, почему стохастическая система приходит к единственному стабильному состоянию, и при чём тут наша любовь к предсказуемости.

Финансы и экономика

Исследование показывает: языковые модели часто не предсказывают будущее, а воспроизводят его из своей памяти – и это меняет всё наше представление об их возможностях.

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться