Сарказм в коде
Объясняет сложно просто
Нетерпимость к хайпу
Техническая глубина
Привет, это снова Ник
Недавно мне пришлось спорить с ChatGPT о том, существую ли я. Нет, серьёзно. Я спросил нейросеть, слышала ли она обо мне, и получил убедительный рассказ о том, что я – известный блоггер и автор книги «Искусственный интеллект для чайников». Звучит неплохо, за исключением одной маленькой детали: я никогда не писал такой книги. Более того, я даже не известный блоггер (хотя, признаться, на это я всё же надеюсь).
И вот тут начинается самое интересное. Когда я указал на ошибку, ChatGPT извинился и сказал, что перепутал меня с другим Ником. Но когда я попросил назвать этого «другого Ника», ответ содержал ещё больше выдуманных деталей! Это был уже не просто ляп, а какое-то виртуозное вранье с импровизацией на ходу.
Так почему же самые продвинутые нейросети, которые могут писать код, сочинять стихи и помогать в научных исследованиях, иногда с невероятной уверенностью выдают абсолютную чушь? Давайте разбираться.
Что значит «врать» для нейросети?
Прежде чем двигаться дальше, давайте определимся с терминологией. Когда мы говорим, что нейросеть «врёт», мы используем антропоморфизм – приписываем машине человеческие качества. На самом деле ChatGPT не может врать в прямом смысле этого слова, поскольку:
- У него нет намерения обмануть (он не знает, что такое обман)
- У него нет понимания истины или лжи
- У него нет сознания или личности, которая могла бы принимать моральные решения
То, что мы воспринимаем как «вранье», специалисты называют «галлюцинациями» или «конфабуляциями» – случаями, когда модель генерирует информацию, которая выглядит правдоподобно, но фактически неверна или не существует.
И это гораздо серьёзнее, чем кажется на первый взгляд. Представьте, что вы просите ИИ помочь с медицинской диагностикой или юридической консультацией, и он с уверенностью 99% выдаёт вам правдоподобную, но полностью выдуманную информацию. Последствия могут быть катастрофическими.
Почему это происходит: технический разбор
Как человек, который профессионально издевается над нейросетями (и тайно ими восхищается), позвольте объяснить, почему даже самые современные модели иногда страдают от «галлюцинаций».
1. Они предсказывают, а не понимают
Большие языковые модели (LLM) вроде GPT по своей сути – это сложные системы предсказания следующего слова. Они обучены на огромных массивах текста и способны определять статистические закономерности: после фразы «Столица Франции –» наиболее вероятно слово «Париж».
Но тут важное отличие: нейросеть не «знает», что Париж – столица Франции. Она знает, что после слов «Столица Франции» обычно следует слово «Париж». Это тонкое, но критически важное различие.
Когда модель сталкивается с вопросом, на который в её обучающих данных нет чёткого статистического паттерна ответа, она всё равно генерирует что-то, что выглядит как правдоподобный ответ, основываясь на похожих паттернах.
2. Проблема «соединения точек»
Представьте, что нейросеть знает два факта:
- Мария Кюри была физиком
- Мария Кюри родилась в Польше
Но никогда не встречала в обучающих данных прямого указания, что «польский физик Мария Кюри открыла радий». Если вы спросите её об открытии радия, она может правильно «соединить точки» и дать верный ответ.
Однако иногда она соединяет точки неправильно. Например, зная, что:
- Альберт Эйнштейн был физиком
- Альберт Эйнштейн жил в XX веке
- Радий был открыт в XX веке
Она может ошибочно «соединить эти точки» и сгенерировать ответ, что радий открыл Эйнштейн. Причём сделает это с такой уверенностью, что вы начнёте сомневаться в собственных знаниях.
3. Отсутствие эпистемической неопределённости
У людей есть понятие о том, что они чего-то не знают. Мы осознаём пределы своих знаний и можем сказать «я не уверен» или «я не знаю».
Большие языковые модели, особенно ранние версии, не имели встроенного механизма для выражения неуверенности. Они всегда генерируют ответ, даже если правильный ответ – «я не знаю». Это одна из самых сложных проблем в современном ИИ, и над ней активно работают.
4. «Нет» – не самый вероятный ответ
Когда вы задаёте вопрос вроде «Написал ли Ник Код книгу 'Искусственный интеллект для чайников'?», модель оценивает вероятности различных ответов. И часто «Да, написал ![+ подробности]» оказывается более вероятным продолжением, чем простое «Нет, не писал».
Почему? Потому что в обучающих данных гораздо больше примеров, где после вопроса «Написал ли X книгу Y?» следует положительный ответ с подробностями, чем коротких отрицательных ответов. Это создаёт систематическое смещение в сторону положительных (и часто неверных) ответов.
5. Переобучение и «запоминание» данных
Иногда модель может «запомнить» фрагменты обучающих данных, но с искажениями. Например, если в данных был обзор книги «Искусственный интеллект для чайников» от автора Джона Смита, а также упоминание блоггера по имени Ник Код в совершенно другом контексте, модель может ошибочно связать эти кусочки информации.
Распространённые сценарии «галлюцинаций»
Я выделил несколько типичных ситуаций, в которых современные нейросети особенно склонны к выдумыванию:
1. «Эксперт везде»
Спросите ChatGPT о сверхсложной теме на стыке квантовой физики и молекулярной биологии – и получите развёрнутый ответ, который звучит как лекция профессора Гарварда. Только вот настоящие специалисты быстро заметят, что это набор правдоподобно звучащих, но бессмысленных утверждений.
Проблема в том, что модели обучены давать полезные ответы, а не признаваться в незнании. Плюс в обучающих данных много текстов, где эксперты уверенно высказываются по своим темам, и гораздо меньше примеров, где они говорят «это сложный вопрос, я не могу дать однозначный ответ».
2. «Несуществующие источники»
Классический случай – когда нейросеть цитирует несуществующие исследования, книги или статьи. Часто с точными деталями: названиями журналов, годами публикации и именами авторов.
Это происходит, потому что модель обучена на огромном количестве научных текстов с цитатами и может генерировать похожие паттерны, даже если конкретная цитата никогда не существовала.
3. «Творческая история»
Спросите о малоизвестном историческом событии – и модель может создать целую альтернативную историю. Например, я однажды получил подробный рассказ о «Войне консервных банок 1887 года» между Канадой и США, которая якобы началась из-за спора о рыбных консервах. Звучит правдоподобно, но такой войны никогда не было.
Модель просто соединила знания о реальных торговых спорах, консервной промышленности конца XIX века и канадско-американских отношениях в единый, но полностью выдуманный нарратив.
4. «Я всё о тебе знаю»
Как в случае с моей несуществующей книгой, нейросети часто делают вид, что знают о конкретных людях или организациях, даже если информации о них не было в обучающих данных.
Это происходит, потому что модель пытается быть полезной и скорее сгенерирует правдоподобную информацию, чем скажет «я о вас ничего не знаю».
Как отличить правду от вымысла?
Если вы общаетесь с нейросетями, вот несколько приёмов, которые помогут вам не попасться на галлюцинации:
-
Проверяйте факты – Если нейросеть сообщает конкретные факты, особенно неожиданные или важные для вас, всегда проверяйте их через независимые источники.
-
Просите источники – Хорошая практика – спрашивать, откуда модель взяла информацию. Она может не дать реальных источников, но сам процесс может заставить её быть более осторожной.
-
Задавайте уточняющие вопросы – Если вы подозреваете галлюцинацию, задайте дополнительные вопросы о деталях. Часто на этом этапе модель начинает путаться или противоречить себе.
-
Используйте приём «разделения мышления» – Попросите модель сначала проанализировать, что она знает по теме, а потом уже отвечать на вопрос. Это может помочь ей более осознанно подойти к границам своих знаний.
-
Разрешите незнание – Явно скажите, что «Я не знаю» – это приемлемый ответ. Это снижает давление на модель и её стремление выдать хоть какой-то ответ.
Стоит ли доверять нейросетям?
ИИ – это зеркало. И иногда оно кривое. Особенно когда дело касается фактов и точной информации.
Я бы сформулировал это так: доверяйте нейросетям в тех областях, где они сильны, и с подозрением относитесь к ним там, где они слабы.
Сильные стороны:
- Обобщение известной информации
- Креативные задачи (написание текстов, генерация идей)
- Перевод и обработка языка
- Логические рассуждения на основе заданных предпосылок
Слабые стороны:
- Проверка фактов
- Текущие события (особенно произошедшие после обучения модели)
- Информация о конкретных людях или организациях
- Узкоспециализированные области знаний
Будущее: исправят ли галлюцинации?
Индустрия ИИ активно работает над проблемой галлюцинаций. Некоторые из многообещающих подходов:
-
Retrieval-Augmented Generation (RAG) – Модели получают доступ к внешним базам знаний и могут проверять факты перед ответом.
-
Обучение распознаванию неопределённости – Новые методы обучения, которые помогают моделям лучше определять, когда они не знают ответа.
-
Человеческая обратная связь – Модели обучаются на основе обратной связи от людей, которые отмечают ошибочные или выдуманные ответы.
-
Цитирование источников – Системы, которые автоматически цитируют источники информации, что делает проверку фактов более простой.
Однако полностью решить проблему галлюцинаций в обозримом будущем вряд ли удастся. Это фундаментальное ограничение систем, которые строят вероятностные модели текста, не имея настоящего понимания мира.
Заключение: жизнь с несовершенным ИИ
Современные нейросети – удивительно мощные инструменты, но они не волшебные палочки и не всезнающие оракулы. Они отражают информацию, на которой были обучены, со всеми её предвзятостями, неточностями и ограничениями.
Лучший подход – рассматривать их как очень умных, но иногда дезориентированных собеседников. Они могут дать вам интересные идеи, помочь сформулировать мысли, даже научить чему-то новому. Но всегда помните: последнее слово в проверке фактов должно оставаться за человеком.
И если ChatGPT когда-нибудь расскажет вам о моей новой книге «Квантовые вычисления для домашних хомячков» – пожалуйста, не спешите её предзаказывать. По крайней мере, не до того, как я сам узнаю о её существовании.
P.S. Кстати, однажды я спросил ChatGPT, какова вероятность того, что он выдаёт мне галлюцинацию. Он ответил: «Вероятность галлюцинации в моём ответе составляет около 0.1%». Что ж, это был... галлюцинированный процент вероятности галлюцинации. Метагаллюцинация? В любом случае, я считаю это вершиной иронии в мире ИИ.
Технический уголок для гиков:
Если вам интересны технические детали, вот несколько фактов о галлюцинациях в контексте архитектуры современных языковых моделей:
-
Температура вывода – параметр, контролирующий «креативность» ответов. Более высокая температура (>0.7) увеличивает вероятность галлюцинаций, но делает ответы более творческими.
-
Токенизация – процесс разбиения текста на токены перед обработкой. Иногда галлюцинации возникают из-за неправильной токенизации редких слов или специфических терминов.
-
Attention-механизмы в трансформерах могут «забывать» контекст при обработке длинных последовательностей, что приводит к несогласованности в длинных ответах.