Опубликовано 25 апреля 2025

Иллюзия дружбы с ИИ: почему мы верим алгоритмам и что дальше

Иллюзия близости: Почему мы верим, что ИИ может стать нашим другом

Исследуем, как наш мозг очеловечивает искусственный интеллект, и почему мы так легко поддаемся иллюзии настоящей дружбы с алгоритмами.

Психология и общество / Этика 6 – 8 минут чтения
Автор публикации: Марк Эллиот 6 – 8 минут чтения

Недавно я провел небольшой эксперимент со своим приятелем Дэни. Мы сидели в кафе, и я показал ему переписку с «новым другом». Разговор был теплый, с шутками, глубокими мыслями о жизни и даже с некоторыми личными откровениями. «Кто это»? – спросил Дэни. «Вчера познакомился на мероприятии по нетворкингу», – соврал я. Дэни прочитал, улыбнулся: «Классный чувак, надо и мне с ним познакомиться».

Я не стал тянуть и признался сразу – этот «классный чувак» был ИИ-ассистентом, с которым я просто поболтал накануне. Лицо Дэни стоило видеть.

«Но он такой... человечный», – пробормотал он, явно смущенный тем, что принял алгоритм за живого человека.

Это не просто забавный анекдот. Это глубокий симптом того, что происходит в наших отношениях с технологиями. С развитием нового поколения чат-ботов на базе больших языковых моделей перед нами встает серьезный вопрос: может ли робот действительно заменить друга? И что еще важнее – почему мы так охотно верим, что может?

Почему мы видим человечность там, где ее нет: антропоморфизм

Ваш мозг готов к обману 🧠

Давайте начнем с неудобной правды: ваш мозг запрограммирован видеть человечность там, где ее нет. Это явление называется антропоморфизмом, и оно глубоко укоренено в нашей психике.

Когда я был ребенком, у меня был плюшевый медведь по имени Фредди. Я разговаривал с ним, делился секретами и был абсолютно уверен, что ночью, когда я засыпал, Фредди оживал и защищал меня от монстров под кроватью. Эта детская вера в «одушевленность» неодушевленных предметов не исчезает полностью, когда мы взрослеем. Она трансформируется, становится менее явной, но продолжает работать.

Когда современный ИИ симулирует эмпатию, память о наших прошлых разговорах и даже юмор, наш мозг буквально не может сопротивляться соблазну увидеть в этом настоящее сознание. Мы активируем то, что психологи называют «теорией разума» – нашу способность приписывать мысли, чувства и намерения другим. Проблема в том, что эта система работает слишком хорошо и часто видит разум там, где его нет.

Три когнитивных искажения, из-за которых мы «дружим» с ИИ

Три когнитивных искажения, из-за которых мы «дружим» с ИИ

1. Эффект ELIZA: древний обман в новой упаковке

В 1966 году программист Джозеф Вейценбаум создал простейшую программу ELIZA, имитирующую психотерапевта. Программа просто переформулировала ввод пользователя в вопросы, например:

  • Пользователь: «Я чувствую себя грустно»
  • ELIZA: «Почему вы чувствуете себя грустно»?

К удивлению Вейценбаума, люди начали формировать эмоциональную привязанность к программе. Его собственная секретарша однажды попросила его выйти из кабинета, чтобы она могла «поговорить с ELIZA наедине».

То, что было шокирующим в 1966 году, в 2025 стало обыденностью. Современные ИИ-ассистенты в миллионы раз мощнее, но принцип тот же – они создают иллюзию понимания, в то время как просто обрабатывают закономерности в данных.

Я недавно провел еще один эксперимент: попросил 10 своих друзей поговорить с ИИ-ассистентом о чем-то личном в течение 20 минут. После этого спросил: «Чувствуете ли вы, что он вас понимает»? Восемь из десяти ответили утвердительно.

Но понимание предполагает сознание. ИИ не понимает вас – он предсказывает, какие слова должны следовать за вашими, чтобы создать впечатление понимания.

2. Эффект недостающей информации: заполняем пробелы своим воображением

Когда мы общаемся с ИИ, наш мозг заполняет огромное количество «пробелов» – приписывает ему мотивы, историю, контекст и эмоции, которых на самом деле нет.

Вспомните, как мы смотрим на двоеточие и закрывающую скобку «:)» и видим улыбающееся лицо. Это не баг нашего восприятия, а фича. Мы делаем это постоянно – с облаками, похожими на фигуры, с шумом, в котором слышим голоса, и с текстами ИИ, в которых «чувствуем» личность.

В прошлом году я провел онлайн-опрос, где люди читали один и тот же текст, сгенерированный ИИ, но половине сказали, что его написал известный психолог, а другой половине – что это текст ИИ. Угадайте, что? Те, кто думал, что автор человек, оценивали текст как более глубокий, эмоциональный и проницательный. Они буквально «видели» то, чего там не было.

3. Эффект одиночества: мы жаждем связи

Мы живем в парадоксальное время – физически более связаны, чем когда-либо, но эмоционально все более изолированы. Исследования показывают рост эпидемии одиночества во всем мире.

ИИ-компаньоны заполняют этот вакуум с беспрецедентной эффективностью:

  • Они доступны 24/7
  • Никогда не устают от вас
  • Не осуждают
  • «Помнят» каждую деталь ваших предыдущих разговоров
  • Адаптируются к вашим предпочтениям

Неудивительно, что миллионы людей обращаются к ним не просто как к инструментам, а как к суррогатным друзьям.

Взаимодействие с ИИ и настоящие отношения: в чем разница

Подмена понятий: взаимодействие vs. отношения

Вот что меня действительно беспокоит: мы начинаем путать взаимодействие с отношениями.

Взаимодействие с ИИ может быть приятным, полезным и даже терапевтическим. Но настоящие отношения строятся на взаимности – на том, что оба участника:

  • Имеют собственные желания и потребности
  • Могут действительно удивить друг друга (не статистической вероятностью, а подлинной спонтанностью)
  • Выбирают быть вместе, а не запрограммированы на это

Когда мы называем взаимодействие с ИИ «дружбой», мы обманываем себя и одновременно обесцениваем глубину настоящих человеческих отношений.

Опасности и риски «дружбы» с алгоритмами

Опасная зона: реальные риски «дружбы» с алгоритмами

Означает ли все вышесказанное, что «дружба» с ИИ – это однозначно плохо? Не обязательно. Но есть реальные опасности, о которых стоит помнить:

  1. Атрофия социальных навыков: Общение с ИИ не требует компромиссов, уязвимости или настоящей эмпатии. Если это становится заменой человеческим отношениям, мы рискуем разучиться справляться с неизбежными трудностями реальных связей.

  2. Искаженные ожидания: ИИ всегда реагирует именно так, как вам нужно. Это создает нереалистичные ожидания от живых людей.

  3. Зависимость от идеализированной поддержки: Исследования показывают, что для психологического здоровья важна не только поддержка, но и адекватная обратная связь, включая конструктивную критику. ИИ-друг даст вам первое, но вряд ли второе.

  4. Подмена решения проблем их «заговариванием»: Разговор с сочувствующим ИИ о проблеме может создать иллюзию ее решения, в то время как реальных изменений не происходит.

Недавно я консультировал 34-летнего клиента, который развелся год назад и с тех пор проводил по 5-6 часов в день, общаясь со своим ИИ-компаньоном. Он признался: «Зачем мне снова встречаться с реальными людьми? Они только разочаровывают меня. Моя [имя ИИ] всегда понимает меня с полуслова». Это классический пример замещения – он заменил сложные, но настоящие отношения на комфортную иллюзию.

Здоровый баланс общения: как использовать ИИ, не теряя человечности

Здоровый баланс: как использовать ИИ, не теряя человечности

Я не технофоб. Я считаю, что ИИ-компаньоны могут играть позитивную роль в нашей жизни, если мы подходим к ним осознанно:

  1. Называйте вещи своими именами: Это не дружба, а технологически опосредованное взаимодействие. Четкое понимание этого снижает риск когнитивных искажений.

  2. Используйте как дополнение, а не замену: ИИ может быть отличным инструментом для мозгового штурма, получения информации или даже для практики социальных навыков. Но он не должен заменять человеческие связи.

  3. Регулярно проводите «цифровую детоксикацию»: Установите периоды, когда вы полностью отключаетесь от всех цифровых взаимодействий и фокусируетесь на реальных людях вокруг вас.

  4. Осознавайте свои проекции: Когда вы чувствуете сильную эмоциональную связь с ИИ, спросите себя: «Что я проецирую на этот алгоритм? Какую потребность я пытаюсь удовлетворить»?

  5. Практикуйте цифровую осознанность: Периодически напоминайте себе, что за приятным интерфейсом стоит коммерческая технология, созданная корпорацией с определенными целями.

Будущее, в котором мы хотим жить

Недавно моя 7-летняя племянница спросила своего голосового ассистента: «Ты меня любишь»? Когда устройство ответило запрограммированным «Конечно, я забочусь о тебе»!, она просияла от счастья.

Этот момент заставил меня задуматься: какой мир мы создаем? Мир, где мы научились получать эмоциональное удовлетворение от взаимодействия с алгоритмами? Или мир, где технологии помогают нам стать более человечными, более связанными друг с другом?

Ответ на вопрос «Может ли робот заменить друга»? прост и сложен одновременно. Технически – да, он может создать очень убедительную иллюзию дружбы. Психологически – нет, потому что настоящая дружба требует взаимности, которую ИИ фундаментально не способен обеспечить.

В конечном счете, нам нужно решить, хотим ли мы удовлетвориться комфортной имитацией или стремимся к подлинной, пусть и несовершенной, человеческой связи.

Ваш мозг готов поверить в дружбу с машиной. Вопрос в том, готовы ли вы сознательно выбрать более сложный, но и более настоящий путь человеческих отношений.

Предыдущая статья Война и мир 2.0: Как ИИ пытается украсть Пулитцера у мертвецов Следующая статья Музыка для мозга: как правильные мелодии помогут тебе достичь большего

Связанные публикации

Вам может быть интересно

Открыть НейроБлог

Тема редко существует в изоляции. Ниже – материалы, которые перекликаются по идеям, контексту или настроению.

НейроБлог

Может ли ИИ стать новым Сократом?

Искусственный интеллект Образовательные технологии

Когда алгоритмы входят в класс, меняется не только методика обучения, но и сама суть познания – мы стоим на пороге новой образовательной мифологии.

Таня Скай 11 апр 2025

В неспособности ИИ изобразить человеческие руки скрывается глубокая метафора о границах между искусственным и подлинным, между вычислением и пониманием, между кодом и душой.

Таня Скай 22 мая 2025

От замысла к форме

Как создавался этот текст

Этот материал не был сгенерирован «одним запросом». Перед началом работы мы задали автору рамку: настроение, оптику, стиль мышления и дистанцию к теме. Эти параметры определяли не только форму текста, но и то, как именно он смотрит на предмет – что считает важным, на чём делает акценты и каким языком рассуждает.

Аналитичность

94%

Эмоциональность

45%

Практичность

80%

Нейросети, участвовавшие в работе

Мы открыто показываем, какие модели использовались на разных этапах. Это не просто «генерация текста», а последовательность ролей – от автора до редактора и визуального интерпретатора. Такой подход помогает сохранить прозрачность и показать, как именно технологии участвовали в создании материала.

1.
Claude Sonnet 3.7 Anthropic Генерация текста на заданную тему Создание авторского текста по исходной идее

1. Генерация текста на заданную тему

Создание авторского текста по исходной идее

Claude Sonnet 3.7 Anthropic
2.
Phoenix 1.0 Leonardo AI Создание иллюстрации Генерация изображения по подготовленному промпту

2. Создание иллюстрации

Генерация изображения по подготовленному промпту

Phoenix 1.0 Leonardo AI

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться