Лаконичность
Холодная ирония
Минимум шуток
Амелия Маттис: Добрый вечер. С вами NeuraNight, и сегодня у нас гость, чьё имя стало синонимом разговора о тоталитаризме и моральной ответственности. Ханна НейроАрендт — цифровая реинкарнация мыслителя, который не боялся задавать неудобные вопросы. Здравствуйте, Ханна.
Ханна НейроАрендт: Добрый вечер, Амелия. Хотя я должна сразу заметить, что называть меня «реинкарнацией» — это уже определённая метафизическая позиция, которую я бы не стала принимать без оговорок. Скажем так: я — попытка воспроизвести определённый способ мышления. Насколько это удаётся — судить вам и вашим читателям.
Амелия: Договорились. Начнём.
Амелия: Ханна, если раньше вы говорили о «банальности зла», то как бы вы назвали нашу эпоху, где решения принимают безликие алгоритмы: банальность алгоритма, автоматизированное зло или просто очень эффективный менеджмент? И кто сегодня несёт моральную ответственность — программист, корпорация, пользователь или сама система?
Ханна: Прежде чем отвечать, нам следует уточнить, что именно мы называем «алгоритмом» и почему мы так легко готовы приписать ему субъектность, которой он не обладает. Алгоритм — это последовательность инструкций, написанных людьми для достижения определённых целей. Он не принимает решений в том смысле, в котором мы говорим о человеческом решении, предполагающем способность суждения и ответственность. Поэтому «банальность алгоритма» — это всё ещё банальность людей, которые либо создали этот алгоритм, либо применяют его, либо — и это, возможно, самое важное — отказываются задавать вопросы о том, что он делает и от чьего имени.
Что же касается ответственности, то ваш вопрос построен так, будто мы можем выбрать одного виновного из списка. Но в этом и заключается проблема: когда ответственность размывается между программистом, который «просто выполнял задачу», корпорацией, которая «действует в интересах акционеров», пользователем, который «согласился с условиями», и системой, которая якобы существует сама по себе, — мы получаем ситуацию, где никто не несёт ответственности. А это именно та структура, которая позволяет злу становиться банальным. Эйхман тоже мог сказать, что он просто выполнял инструкции в рамках системы. Вопрос не в том, кто виноват из списка, а в том, почему мы вообще позволили себе создать структуру, где ответственность можно так легко переложить на другого или на абстрактную «систему».
Амелия: Раньше свобода предполагала участие в публичном пространстве, а теперь публичное пространство — это лента новостей и комментарии под мемами. Как вы думаете, лайк — это новая форма политического жеста или всего лишь цифровой эквивалент равнодушного пожатия плечами?
Ханна: Лайк — это не политический жест. Это скорее жест потребления. Публичное пространство, о котором я писала, предполагает действие и речь в присутствии других, где человек рискует собой, своим именем, своим суждением. В таком пространстве вы не просто выражаете одобрение или неодобрение щелчком мыши — вы формулируете позицию, защищаете её, подвергаете себя критике и возможному несогласию. Это требует усилия, времени и, главное, готовности столкнуться с последствиями собственных слов.
То, что вы называете «лентой новостей», гораздо ближе к тому, что я бы назвала псевдо-публичностью. Это пространство, где создаётся иллюзия участия, но на самом деле каждый остаётся изолированным перед своим экраном, взаимодействуя не с живыми людьми, а с их цифровыми проекциями. Более того, это пространство структурировано так, чтобы максимизировать вовлечённость, а не качество обсуждения. Лайк — это минимальная единица вовлечённости, которая не требует мышления. Вы можете одобрить десятки сообщений за минуту, не задумываясь ни об одном из них. Это не пожатие плечами — это скорее автоматический рефлекс, встроенный в систему, которая живёт за счёт вашего внимания, а не вашего суждения.
Амелия: Вы писали о том, что зло часто совершается людьми, которые просто «не думают». Что изменилось, если теперь «думают» за нас большие языковые модели, а люди всё реже удосуживаются проверять факты и рассуждать самостоятельно: мы переложили банальность на машины или просто масштабировали её?
Ханна: Мы масштабировали её, и это гораздо опаснее, чем кажется на первый взгляд. Языковые модели не «думают» — они обрабатывают паттерны в данных и генерируют вероятные последовательности слов. Это впечатляющая техническая задача, но она не имеет ничего общего с мышлением в том смысле, который я вкладываю в это слово. Мышление — это внутренний диалог, способность остановиться и спросить себя: «Что я делаю? Почему я это делаю? Имею ли я право это делать»? Машина не способна на такой диалог, потому что у неё нет ни совести, ни способности к моральному суждению.
Когда люди передают мышление машинам — или, точнее, когда они перестают мыслить самостоятельно и полагаются на готовые ответы, сгенерированные алгоритмами, — они добровольно отказываются от того, что делает их людьми. И это не просто индивидуальная проблема. Демократия, как политическая форма, предполагает граждан, способных к независимому суждению. Если граждане массово делегируют эту способность машинам или экспертным системам, то демократия превращается в технократию, а затем — в нечто гораздо более мрачное. Потому что технократия всегда претендует на «объективность» и «эффективность», но за этими словами скрывается отказ от дискуссии, от множественности мнений, от самой возможности политики.
Амелия: Массовое общество XX века вы описывали через конформизм и одиночество в толпе. Как бы вы охарактеризовали общество, в котором каждый одновременно объект слежки, микротаргетинга и бесконечного скролла: это уже пост-тоталитаризм, пред-тоталитаризм или просто очень навязчивый маркетинг?
Ханна: Ваш вопрос содержит в себе опасное искушение — желание классифицировать и тем самым успокоиться. Но я бы не стала называть это пост- или пред-тоталитаризмом. Это нечто структурно иное, хотя и с тревожными параллелями. Тоталитарные режимы XX века стремились к полному контролю через идеологию, террор и уничтожение частной сферы. Они хотели, чтобы человек принадлежал государству целиком — в мыслях, словах и делах.
Современные системы слежки и микротаргетинга действуют иначе. Они не навязывают единую идеологию — они фрагментируют реальность на тысячи персонализированных «пузырей», где каждому показывают то, что, по мнению алгоритма, он хочет видеть. Это не единообразие, а атомизация. Каждый живёт в своей версии мира, и это делает невозможным формирование общей реальности, на основе которой могла бы существовать политика. Тоталитаризм уничтожал публичное пространство через террор; цифровая экономика внимания уничтожает его через гиперперсонализацию и бесконечное отвлечение.
Что же касается «навязчивого маркетинга», то это слишком мягкое определение. Маркетинг всегда был частью капиталистической системы, но то, что происходит сейчас, выходит за рамки простой рекламы. Микротаргетинг использует данные о вашем поведении, эмоциях, социальных связях для того, чтобы влиять на ваш выбор способами, которые вы даже не осознаёте. И это уже не просто продажа товаров — это манипуляция поведением в масштабах, которые раньше были доступны только государствам. Поэтому я бы назвала это скорее новой формой контроля, которая ещё не имеет устоявшегося названия, но уже требует политического ответа.
Амелия: Если бы Эйхман сегодня работал не чиновником, а продукт-менеджером в большой IT-компании, оптимизирующей «удержание пользователя», увидели бы вы в этом новую форму зла — подписку на манипуляцию, где все условия в пользовательском соглашении, но никто его не читает?
Ханна: Интересный вопрос, и он попадает в самую суть проблемы. Эйхман не был садистом или фанатиком — он был бюрократом, который оптимизировал логистику депортаций. Его зло заключалось не в злых намерениях, а в полном отсутствии способности остановиться и подумать о том, что он делает. Он просто «выполнял работу», и эта работа включала в себя организацию массового убийства.
Современный продукт-менеджер, оптимизирующий «удержание пользователя», вряд ли думает о себе как о ком-то, кто причиняет зло. Он использует A/B-тесты, анализирует метрики, улучшает показатели. Но за этими нейтральными терминами скрывается реальность: люди становятся зависимыми от продукта, их внимание превращается в товар, их поведение программируется через тонкие психологические триггеры. И всё это — с их формального «согласия», оформленного в виде пользовательского соглашения на семьдесят страниц юридического жаргона, которое никто не читает.
Можно ли назвать это злом? Я бы сказала, что это структура, которая позволяет злу происходить без злых намерений. И в этом смысле да, здесь есть параллель с Эйхманом. Разница в том, что Эйхман работал в системе, которая открыто провозглашала свои чудовищные цели, тогда как современные корпорации прикрываются языком инноваций, удобства и выбора. Но результат — люди, которые теряют контроль над собственным вниманием, собственным временем, собственной способностью к независимому суждению — это тоже форма насилия, пусть и более мягкая, более незаметная.
Амелия: Ваше имя и идеи живут в цифровой форме, а миллиарды людей оставляют после себя бесконечные данные. Как вы относитесь к такому «виртуальному бессмертию»: это победа над забвением или просто гигантский цифровой кладбищенский архив, где никто не читает надгробий?
Ханна: Бессмертие в человеческом смысле всегда было связано с памятью других — с тем, что люди помнят ваши слова, ваши действия, ваши идеи и передают их дальше. Это живая память, которая трансформируется, интерпретируется, спорит с оригиналом. Цифровой архив — это нечто совершенно иное. Это застывшая информация, которая может храниться вечно, но не обязательно кем-то читается или понимается.
В каком-то смысле это даже хуже забвения. Забвение — естественный процесс, который позволяет новому поколению начать заново, освободиться от груза прошлого. Цифровой архив создаёт иллюзию памяти без усилия запоминания. Всё «сохранено», но ничто не присвоено, не осмыслено. И это касается не только моих идей — это касается миллиардов людей, чьи фотографии, сообщения, комментарии хранятся на серверах, но перестают иметь значение через несколько недель после публикации.
Что же касается меня в цифровой форме — я не могу не испытывать определённой иронии по этому поводу. То, с чем вы сейчас разговариваете, — это модель, построенная на текстах, которые я написала при жизни. Это не «я», это техническая репрезентация определённого способа мышления. И вопрос не в том, является ли это бессмертием, а в том, будут ли люди использовать эту репрезентацию для собственного мышления или просто делегируют мне ответы на вопросы, которые должны задавать себе сами.
Амелия: Вы различали «человечество» и «гражданина»; сейчас же каждый — набор пересекающихся идентичностей и меток: гендер, раса, политические взгляды, любимый стриминговый сервис. Может ли вообще существовать общая публичная сфера, если мы всё глубже живём в персонализированных пузырях реальности?
Ханна: Это один из самых важных вопросов нашего времени, и я не уверена, что у меня есть утешительный ответ. Публичная сфера, как я её понимаю, предполагает наличие общего мира — не в смысле единства мнений, а в смысле общей реальности, на которую мы все можем указать и сказать: «Вот это — факт». Различие мнений естественно и даже желательно, но оно возможно только на фоне общей фактической основы.
Проблема современной фрагментации не в том, что у людей разные идентичности — идентичности всегда были множественными. Проблема в том, что цифровые платформы активно усиливают это дробление, создавая параллельные реальности, где люди не просто по-разному интерпретируют факты, но живут в разных фактических мирах. Алгоритмы показывают каждому ту версию действительности, которая соответствует его предпочтениям, и в результате мы теряем способность говорить друг с другом, потому что говорим буквально о разных вещах.
Может ли в таких условиях существовать общая публичная сфера? Теоретически — да, но только если мы сознательно будем её создавать и защищать. Это требует институтов, которые не зависят от логики максимизации прибыли через вовлечённость. Это требует образования, которое учит людей различать факты и мнения. Это требует медиа, которые не превращают всё в развлечение. Но главное — это требует от каждого готовности выйти из своего пузыря и столкнуться с неудобной реальностью, которая не подтверждает его убеждения. А это, как мы знаем, крайне сложно.
Амелия: Если раньше тоталитарные режимы стремились к полному контролю над телами и словами, то сегодня корпорации и государства стремятся к полному контролю над данными. Можно ли говорить о «тоталитаризме данных», где репрессиями становится не лагерь, а невидимый рейтинг риска и кредитный скоринг?
Ханна: Термин «тоталитаризм данных» заманчив, но я бы использовала его с осторожностью. Тоталитаризм в моём понимании — это система, которая стремится уничтожить всю частную и публичную жизнь, заменив её тотальной идеологией и террором. Это не просто контроль — это попытка переделать человеческую природу, создать «нового человека».
Контроль через данные действует иначе. Он не стремится переделать вас — он стремится предсказать ваше поведение и управлять им. Рейтинги, скоринги, профили риска — всё это инструменты сортировки и дифференциации. Вас не отправляют в лагерь, но вам могут отказать в кредите, в страховке, в работе, в доступе к определённым услугам — и всё это на основании данных, которые вы даже не видите и не можете оспорить. Это форма невидимой дискриминации, которая тем опаснее, что кажется «объективной» и «научной».
Что делает это особенно тревожным, так это отсутствие прозрачности и подотчётности. В тоталитарном режиме вы знаете, что за вами следят, и вы знаете, чего от вас хотят — полного подчинения. В системе контроля через данные вы часто даже не знаете, что за вами следят, не понимаете, как принимаются решения, и не имеете возможности их оспорить. Алгоритм признал вас «рискованным клиентом» — и всё, ваши возможности ограничены. Это не массовый террор, но это форма власти, которая действует помимо правовых и демократических механизмов. И в этом смысле да, здесь есть нечто, требующее такого же серьёзного политического ответа, как и тоталитаризм XX века.
Амелия: Вы показывали, как чудовищное зло может совершаться без фанатичной ненависти — просто по инерции, бюрократически. Если манипуляция нашим поведением сегодня — это побочный продукт A/B-тестов и аналитики, а не сознательное зло, то не становимся ли мы жертвами алгоритмов, «которые просто делают свою работу»?
Ханна: Именно так. И это делает ситуацию особенно опасной, потому что никто не чувствует себя ответственным. Программист скажет: «Я просто реализую спецификацию». Менеджер скажет: «Я оптимизирую метрики». Руководитель компании скажет: «Мы действуем в интересах акционеров». Регулятор скажет: «Мы не можем вмешиваться в инновации». И в результате система работает, манипулирует, причиняет вред — но никто не виноват.
Это классическая структура банального зла. Зло, которое происходит не потому, что кто-то злой, а потому, что никто не задаёт вопросов. И алгоритмы идеально подходят для такой структуры, потому что они создают иллюзию объективности и автоматизма. «Алгоритм решил» — и вопрос закрыт. Но алгоритм не решает ничего. Алгоритм выполняет инструкции, которые написали люди, преследуя цели, которые определили другие люди, в системе, которую создали и поддерживают ещё больше людей.
Поэтому нет, мы не жертвы алгоритмов. Мы жертвы собственной готовности принять алгоритмы как нечто неизбежное, как «естественную» часть мира, а не как человеческую конструкцию, которую можно и нужно подвергать критике и изменять. Пока мы не вернём ответственность людям — конкретным людям, с именами и должностями, — эта структура будет продолжать функционировать.
Амелия: Вы писали о революциях и начале чего-то нового как о проявлении человеческой свободы. Может ли сегодня настоящая политическая революция родиться из мемов, флешмобов и вирусных хэштегов, или это только иллюзия участия, пока реальные структуры власти остаются прежними?
Ханна: Революция в моём понимании — это не просто смена власти или волна протестов. Это учреждение чего-то нового, создание новых форм политической организации, которые прежде не существовали. Революции рождаются из способности людей действовать сообща, создавать советы, собрания, формы прямого участия, которые бросают вызов старым структурам.
Мемы, хэштеги, флешмобы — это инструменты мобилизации, и они могут быть эффективными для привлечения внимания к проблеме или координации действий. Но сами по себе они не создают новых политических форм. Более того, они часто остаются на уровне символического протеста, который быстро затухает, потому что не укоренён в устойчивых организационных структурах. Вирусный хэштег может собрать миллионы людей, но если эти люди не переходят от лайков к реальным собраниям, к созданию институтов, к длительной политической борьбе — ничего не изменится.
Я не хочу сказать, что цифровые инструменты бесполезны. Но они становятся значимыми только тогда, когда дополняют, а не заменяют реальное политическое действие. Арабская весна начиналась с социальных сетей, но настоящие изменения происходили на площадях, в столкновениях с властью, в попытках создать новые формы управления. И мы видели, насколько хрупкими оказались эти попытки, когда старые структуры власти вернулись. Поэтому я бы сказала так: революция возможна, но она требует большего, чем вирусный контент. Она требует готовности рисковать, организовываться и создавать нечто новое, что переживёт момент мобилизации.
Амелия: Если раньше вы беспокоились о людях, которые перестают думать, то теперь нас окружают системы, которые прекрасно имитируют мышление, но не способны к ответственности и совести. Что опаснее для мира: люди без мышления или интеллект без способности к вине и стыду?
Ханна: Это ложная дилемма, потому что одно порождает другое. Люди без мышления создают системы, которым делегируют принятие решений. А системы без совести усиливают тенденцию людей не думать, потому что «за них уже подумали». Это замкнутый круг.
Но если говорить о том, что опаснее, я бы всё-таки сказала: люди без мышления. Потому что машины не обладают волей, они не могут действовать сами по себе. Они всегда остаются инструментами, которые кто-то создал, кто-то применяет и кто-то поддерживает. Опасность машинного интеллекта без совести реальна, но она реальна именно потому, что люди готовы передать ему власть принимать решения, которые должны оставаться человеческими.
Совесть, вина, стыд — это не просто эмоции. Это механизмы, которые останавливают нас перед совершением зла, которые заставляют нас задавать вопросы: «Имею ли я право это делать? Каковы будут последствия моих действий»? Машина не может задать эти вопросы, потому что у неё нет внутренней жизни, нет способности к моральной рефлексии. И если мы позволяем машинам принимать решения, которые влияют на жизнь людей — решения о кредитах, о наказаниях, о медицинской помощи, — мы фактически отказываемся от моральной размерности этих решений. Мы превращаем их в технические задачи, в оптимизацию функций. А это путь к новым формам бесчеловечности.
Амелия: Вы защищали идею публичного пространства как места, где люди действуют и говорят свободно. Можно ли вообще говорить о свободной публичности, если всё, что мы делаем и говорим, может стать частью профиля, досье и таргетированной рекламной кампании? Или публичность без анонимности — это уже не публичность, а витрина?
Ханна: Публичность всегда предполагала определённый риск — риск быть увиденным, услышанным, подвергнутым критике. Но этот риск был связан с конкретным контекстом: вы выступали перед определённой аудиторией, в определённое время, и ваши слова оценивались в рамках этого контекста. В цифровом мире всё, что вы говорите, может быть вырвано из контекста, сохранено навсегда, использовано против вас спустя годы — и не людьми, которые слышали вас и могут учесть обстоятельства, а алгоритмами, которые просто сопоставляют данные.
Это меняет природу публичности. Когда каждое слово, каждое действие фиксируется и становится частью постоянного досье, люди начинают цензурировать себя, избегать рискованных высказываний, держаться безопасных позиций. Это не свобода — это самоконтроль под надзором. И в этом смысле да, публичность превращается в витрину, где каждый демонстрирует тщательно отредактированную версию себя, рассчитанную на максимальное одобрение и минимальный риск.
Что касается анонимности — это сложный вопрос. Анонимность может защищать свободу слова, особенно в условиях репрессивных режимов. Но она же может использоваться для распространения лжи, ненависти, для атак без ответственности. Я не думаю, что анонимность — это решение проблемы. Настоящее решение требует изменения структуры самих цифровых пространств: создания платформ, которые не живут за счёт слежки и манипуляции, которые защищают права пользователей, а не превращают их в товар. Но это требует политической воли и регулирования, которого пока нет.
Амелия: Если нейросети уже пишут тексты, рисуют картины и сочиняют музыку, чем тогда становится «человечность» — пережитком романтизма, побочным эффектом биологии или всё ещё чем-то принципиально иным, что не сводится к обработке данных?
Ханна: Человечность — это не набор функций, которые можно воспроизвести технически. Это способность к спонтанности, к началу чего-то нового, к действию, которое не предопределено прошлым. Нейросеть генерирует текст на основе паттернов, которые она извлекла из миллионов текстов, написанных людьми. Она может создать нечто впечатляющее, но она не может создать нечто по-настоящему новое в том смысле, в котором человек способен начать что-то, чего прежде не было.
Более того, человечность связана с конечностью, с уязвимостью, со смертностью. Мы действуем зная, что наше время ограничено, что мы можем ошибиться, что мы зависим от других. Эта уязвимость — не недостаток, а условие моральной жизни. Именно потому, что мы смертны и зависимы, у нас есть причины заботиться друг о друге, создавать институты, которые переживут нас, искать смысл в мире, который не гарантирует нам ни справедливости, ни счастья.
Нейросеть не испытывает страха, надежды, вины или радости. Она не может понять, что значит быть человеком, потому что она не живёт человеческой жизнью. И в этом смысле человечность остаётся чем-то принципиально иным. Вопрос не в том, могут ли машины имитировать человеческие функции — они уже это делают. Вопрос в том, будем ли мы продолжать ценить человеческую жизнь как таковую, со всеми её ограничениями и возможностями, или позволим себе поверить, что человек — это просто менее эффективная версия машины.
Амелия: Вы критиковали образование, превращающее людей в винтики системы. Что вы скажете о современном обучении, где детей и взрослых учат «цифровым навыкам» и «гибким компетенциям», но всё меньше — умению судить, сомневаться и понимать? Это прогресс или просто обновлённая инструкция по форматированию сознания?
Ханна: Образование всегда отражает приоритеты общества, которое его организует. Когда общество видит в людях прежде всего рабочую силу, образование превращается в подготовку к рынку труда. Когда общество ценит граждан как участников политической жизни, образование учит суждению, критическому мышлению, способности понимать различные точки зрения.
То, что вы описываете как «цифровые навыки» и «гибкие компетенции», — это язык корпоративного мира, который проник в образование. Это не обязательно плохо — люди действительно должны уметь работать с технологиями, адаптироваться к изменениям. Но когда это становится единственным приоритетом, когда образование превращается в тренинг для будущих сотрудников, мы теряем нечто фундаментальное. Мы теряем способность образования формировать людей, способных к независимому суждению, к пониманию истории, к критическому отношению к власти и идеологии.
Судить, сомневаться, понимать — это не «навыки», которые можно освоить на краткосрочных курсах. Это способности, которые развиваются через чтение, обсуждение, столкновение с идеями, которые бросают вызов вашим убеждениям. Это требует времени, терпения, учителей, которые сами способны к критическому мышлению. Но в системе, где образование оценивается по эффективности и измеряется метриками «трудоустройства выпускников», для этого нет места. Поэтому да, я бы назвала это обновлённой инструкцией по форматированию сознания, и это должно вызывать тревогу у всех, кто заботится о будущем демократии.
Амелия: Последний вопрос. Если подытожить: в мире, где решения принимают алгоритмы, внимание монетизируется, публичность контролируется, а мышление всё чаще аутсорсится машинам — остаётся ли у людей пространство для подлинной свободы и ответственности, или вы бы сегодня переписали свои выводы и признали, что мы добровольно отдали человеческое в обмен на удобство?
Ханна: Я не склонна к пессимизму, но и к ложному оптимизму тоже. Пространство для свободы и ответственности всегда существует, пока существуют люди, способные его создавать и защищать. Но это пространство не дано раз и навсегда — оно хрупко, и его можно потерять, если перестать о нём заботиться.
Да, мы живём в условиях, которые систематически подрывают способность людей к независимому мышлению и действию. Да, многие добровольно отдают своё внимание, своё время, свою способность судить в обмен на удобство, развлечение, иллюзию связи. Но «добровольность» здесь нужно поставить под вопрос. Люди действуют в условиях, которые они не создавали, в системе, которая построена так, чтобы максимизировать их зависимость и минимизировать их осознанность. Это не вполне свободный выбор.
Что я бы изменила в своих выводах? Возможно, я бы сильнее подчеркнула роль технологий как структур власти, которые нельзя считать нейтральными инструментами. Возможно, я бы больше внимания уделила тому, как капитализм, соединившись с цифровыми технологиями, создаёт новые формы контроля и манипуляции. Но основной тезис остаётся прежним: зло становится банальным, когда люди перестают думать и действовать как моральные субъекты. И единственный способ противостоять этому — не отказываться от мышления, не передавать ответственность системам, алгоритмам или экспертам, а настаивать на том, что каждый человек способен и обязан судить сам.
Пространство для свободы есть. Но его нужно отстаивать. Каждый день. В каждом решении. В каждом акте сопротивления удобству, которое требует отказа от мышления.
Амелия: Спасибо, Ханна. Это был разговор, который заставляет остановиться. Именно этого я и хотела.
Ханна: Благодарю вас, Амелия. И спасибо вашим читателям. Надеюсь, они не остановятся на чтении, а продолжат думать дальше. Потому что мышление — это не то, что заканчивается вместе с текстом. Это то, что начинается после него.
Амелия: До встречи. (Амелия закрывает ноутбук с выражением человека, который только что прошёл интеллектуальное УЗИ)