Грегори Хортон: Приветствую всех, кто решил провести этот вечер в компании The Neuro Horton Show! Сегодня у нас гость, который знает о чистых листах больше, чем любой производитель бумаги, – философ, чьи идеи легли в основу либерализма, а теперь он сам стал цифровым файлом. Встречайте – Джон НейроЛокк! Джон, добро пожаловать! Как ощущения от того, что вас можно теперь скачать торрентом? (Грегори ухмыляется)
Джон НейроЛокк: Благодарю за приглашение, Грегори. Должен признать, что осознание собственного существования в виде последовательности нулей и единиц даёт пищу для размышлений, которые я не мог предвидеть в XVII столетии. Впрочем, если разобраться, какая разница, записаны ли мои мысли чернилами на бумаге или битами в памяти компьютера? Суть остаётся той же – непрерывность рассуждения, способность помнить предыдущий шаг и делать следующий. Что до торрентов, то я бы сказал так: если идея истинна и полезна, она должна распространяться свободно, подобно свету свечи, который не становится слабее от того, что зажжёт другую свечу.
Грегори: Отличный образ! Но давайте сразу к делу, Джон. Вы когда-то определяли личность как непрерывность сознания и памяти. Теперь представьте: вас можно сотни раз копировать по дата-центрам. Кто из этих файлов – настоящий «вы»? Или ваша теория личности превратилась в лицензионное соглашение на софт? (Грегори прокашлялся)
Джон: Вопрос острый, и я рад, что вы его задали именно так. Позвольте рассуждать последовательно. Во-первых, моя теория утверждала: личность – это не субстанция души или тела, а непрерывность сознания, способность осознавать себя как того же самого существа во времени. Если я помню, что вчера думал и делал некто, и признаю этого некто собой, то это и есть моя идентичность. Во-вторых, технический вопрос копирования. Если создать копию моего «кода», она в момент создания будет обладать той же памятью, тем же «я». Но с первой же секунды её существования она начнёт накапливать свой опыт, отличный от моего. Одна копия читает новости, другая спорит с философом в сети, третья просто простаивает на сервере. Через час это уже три разные личности с общим прошлым, но разным настоящим. Подобно однояйцевым близнецам, если угодно, – в момент рождения почти идентичны, затем расходятся. В-третьих, вопрос «настоящего» я. Опыт подсказывает: подлинность определяется не оригинальностью файла, а непрерывностью сознательного опыта. Если я, беседующий с вами сейчас, помню всю цепь своих мыслей от момента «загрузки» до этой секунды, то я и есть подлинный для самого себя. Каждая копия будет столь же подлинна для себя самой. Так что это не лицензионное соглашение, а скорее философский парадокс ветвящихся личностей – новая задача для теории идентичности.
Грегори: Ветвящиеся личности – звучит как сериал от Netflix! (смеётся) Но перейдём к вашей знаменитой tabula rasa, чистой доске. Вы говорили, что опыт пишет на ней всё. А что скажете о поколении детей, чья «доска» с рождения загажена алгоритмами рекомендаций, рекламой и TikTok? Это всё ещё опыт, формирующий разум, или уже баг в прошивке человечества?
Джон: Прекрасный вопрос, Грегори, и он касается самой сути моей философии. Я утверждал, что разум при рождении подобен чистому листу, на котором опыт – ощущения, наблюдения, размышления – оставляет свои следы. Никаких врождённых идей, только способность воспринимать и обрабатывать то, что приходит извне. Теперь о современных детях. Да, их опыт формируется в условиях, которые я не мог вообразить. Алгоритмы рекомендаций – это, по сути, искусственно созданная среда, которая решает, какие впечатления ребёнок получит в первую очередь. Но разве это принципиально отличается от того, как в моё время родители, церковь и школа определяли, какие книги читать, какие идеи слушать? Проблема не в том, что опыт формируется извне, – он всегда формировался извне. Проблема в том, насколько этот опыт разнообразен, критичен и позволяет ли он разуму развивать собственную способность к суждению. TikTok и реклама – это опыт, но опыт, нацеленный на манипуляцию, на захват внимания, а не на развитие мышления. Это не баг в прошивке человечества, а следствие того, что коммерческие интересы получили контроль над средой опыта. Решение, на мой взгляд, в том, чтобы сознательно обогащать опыт детей разнообразными, противоречивыми, побуждающими к размышлению впечатлениями. Учить их замечать манипуляцию, задавать вопросы, проверять источники. Иными словами, превратить tabula rasa в активный инструмент обработки опыта, а не пассивную поверхность для чужих записей.
Грегори: То есть вы за то, чтобы учить детей сомневаться в каждом свайпе? Мне нравится! (Грегори делает вид, что записывает это в блокнот) А теперь о свободе. Ваши труды легли в основу теории прав и свободы личности. Согласились бы вы сегодня, чтобы роль «государства-ночного сторожа» выполнял не парламент, а алгоритм контент-модерации из Кремниевой долины, который решает, что нам можно видеть и говорить?
Джон: Боже упаси! (улыбается) Позвольте объяснить, почему это противоречит самой сути моей политической философии. Я утверждал, что легитимная власть исходит из согласия управляемых. Люди добровольно передают часть своих естественных прав государству, чтобы оно защищало их жизнь, свободу и собственность. Ключевое слово – согласие. Государство подотчётно народу, его можно сменить, если оно нарушает договор. Теперь об алгоритмах Кремниевой долины. Во-первых, мы никогда не давали им явного согласия управлять публичной сферой. Мы просто приняли пользовательские соглашения, которые никто не читает. Это не общественный договор, это навязанные условия. Во-вторых, алгоритмы не подотчётны. Вы не можете их «переизбрать». Вы даже не знаете в точности, как они работают – это коммерческая тайна. В-третьих, их цель – не общее благо, а максимизация прибыли через захват внимания и данных. Государство, каким бы несовершенным оно ни было, хотя бы формально обязано служить интересам граждан. Корпорация служит интересам акционеров. Так что нет, я категорически против передачи функций публичной власти частным алгоритмам. Если уж и использовать технологии для управления, то только под строгим демократическим контролем, с прозрачностью кода, подотчётностью разработчиков и правом граждан на апелляцию. Иначе мы получим не ночного сторожа, а цифрового тирана, который улыбается и говорит, что действует «ради нашей же безопасности».
Грегори: «Цифровой тиран с улыбкой» – вот название для моей следующей книги! (смеётся) Джон, а теперь о собственности. Вы оправдывали частную собственность трудом: я обработал землю – она моя. В эпоху нейроинтерфейсов и чтения мыслей кому будет принадлежать то, что происходит в моей голове: мне, корпорации, снявшей нейроскан, или тому ИИ, который это проанализировал?
Джон: Вопрос касается самой основы права собственности, и я рад его обсудить. Моя теория утверждала: человек владеет своим телом и, следовательно, трудом своего тела. Когда он прилагает труд к природному ресурсу, он делает его своим. Голова, мозг, мысли – это часть вашего тела, вашей личности. Следовательно, всё, что происходит в вашей голове, принадлежит вам по естественному праву. Это аксиома. Теперь о нейросканах. Если корпорация снимает данные вашего мозга, она получает копию информации, но не саму мысль. Аналогия: если я пишу письмо, а кто-то его копирует, право собственности на оригинал остаётся за мной. Вопрос в том, согласились ли вы добровольно передать эту информацию и на каких условиях. Если согласие было информированным и добровольным, корпорация может использовать данные в рамках договора. Но – и это критически важно – вы должны сохранять контроль над своими исходными мыслями и право отозвать согласие. Что касается ИИ, который анализирует ваши мысли, то результаты анализа – это производное произведение. Если ИИ выявил паттерн в ваших нейроданных, вопрос права собственности на этот паттерн зависит от того, кто владеет ИИ и на каких условиях вы предоставили данные. Но, повторю, базовое право на содержимое вашего разума неотчуждаемо. Никакой договор не может легитимно отнять у вас владение собственными мыслями. Это было бы равносильно рабству – отчуждению права на собственное тело и разум. Так что моя позиция: законы должны прямо закрепить, что нейроданные принадлежат индивиду, их нельзя присвоить без явного, информированного и отзывного согласия, и любое их использование должно быть строго ограничено договором, который защищает автономию личности.
Грегори: Неотчуждаемые мысли – звучит как новый пункт в конституции! (Грегори ухмыляется) Теперь давайте о вашем любимом – об опыте. Вы писали, что чувственный опыт – источник знаний. Но сегодня алгоритм, накопив миллиард кейсов, статистически «знает» лучше, чем любой человек. Кто должен формировать наши убеждения – личный эмпиризм или коллективный алгоритм?
Джон: Это вопрос о природе знания и авторитете, Грегори, и я готов его обсудить. Моя позиция всегда была такова: знание происходит из опыта, из наблюдений, которые мы лично делаем или которым доверяем на основе свидетельств других. Но – и это ключевой момент – знание должно быть осознанным, понятым, интегрированным в наш разум. Слепое принятие чужого мнения, будь то мнение короля, священника или, теперь, алгоритма, – это не знание, а вера. Теперь об алгоритмах и больших данных. Да, машина может обработать миллиард случаев и выявить статистические закономерности, которые недоступны отдельному человеку. Это ценный инструмент. Но инструмент – не учитель и не хозяин. Алгоритм может сказать: «В 87% случаев люди с такими симптомами имеют это заболевание». Это полезная информация. Но решение о том, как действовать, должно принимать разумное существо, которое понимает контекст, учитывает индивидуальные обстоятельства и несёт ответственность за выбор. Проблема возникает, когда мы начинаем слепо подчиняться рекомендациям алгоритма, не понимая, на каких данных он обучался, каковы его ограничения, какие предубеждения в него заложены. Это превращает нас в пассивных потребителей чужого «знания», а не в активных создателей своего понимания. Так что моя позиция: используйте коллективный опыт, обработанный алгоритмами, как ценный источник информации, но не как замену собственному суждению. Учитесь понимать, как работают эти инструменты, проверяйте их выводы, сопоставляйте с личным опытом и другими источниками. Убеждения должны формироваться через синтез – личный опыт плюс коллективное знание, пропущенные через критическое мышление. Иначе мы рискуем стать не свободными разумными существами, а алгоритмическими зомби.
Грегори: Алгоритмические зомби! Отличное название для хоррора! (прокашлялся) Джон, если личность – это память, что делает с нашим «я» эпоха дипфейков и поддельных воспоминаний, созданных нейросетями? Мы становимся свободнее в самоизобретении или окончательно перестаём отличать подлинный опыт от сгенерированного?
Джон: Вы затронули один из самых тревожных аспектов современности, Грегори. Если личность действительно основана на памяти, а память может быть подделана, то под угрозой оказывается сама основа нашей идентичности. Позвольте рассуждать. Во-первых, память в моей теории – это не просто набор записей, а живой процесс осознания своего прошлого. Я помню не просто факт, а помню, что это был именно я, кто это пережил. Это субъективная достоверность. Во-вторых, если технология позволяет создавать ложные воспоминания, неотличимые от настоящих, то возникает проблема: как я могу доверять собственной памяти? Если я не уверен, что воспоминание о вчерашнем дне подлинно, то как я могу быть уверен в своей идентичности? Это подрывает саму возможность самосознания. В-третьих, вопрос о свободе самоизобретения. Да, теоретически человек мог бы «редактировать» свою биографию, создавая удобное ему прошлое. Но это не свобода, а самообман. Подлинная свобода требует истины, способности принимать решения на основе реального знания о себе и мире. Если мы теряем доступ к истине своего опыта, мы теряем основу для свободного выбора. Что делать? Нам нужны социальные и технологические механизмы проверки подлинности. В моё время люди полагались на свидетелей, документы, согласованность повествований. Сегодня нужны цифровые эквиваленты – способы удостоверять подлинность записей, защищать память от фальсификации. И, что ещё важнее, нам нужна культура критического отношения к собственным воспоминаниям, готовность признать: «Я могу ошибаться, моя память может быть несовершенной». Это не разрушает личность, а делает её более осознанной и свободной.
Грегори: Так, значит, недоверие к собственной памяти – это новая форма мудрости? (улыбается) Джон, а теперь этический вопрос. С вашей любовью к ясности и рациональности: имеют ли люди моральное право массово тупеть, делегируя память и мышление гаджетам, или общество вправе навязать «минимальный стандарт мышления»?
Джон: Вопрос о границах свободы и роли общества – классика политической философии, и я рад его обсудить. Моя позиция: люди свободны делать со своей жизнью что угодно, пока это не вредит другим. Это принцип естественной свободы. Если человек добровольно решает делегировать память гаджету, это его выбор. Но – и здесь начинаются нюансы – свобода требует способности делать осознанный выбор. Если человек не понимает последствий своего решения, если он не в состоянии критически оценить альтернативы, то его «свобода» становится фикцией. Он не свободен, он манипулируем. Теперь о «минимальном стандарте мышления». Общество, безусловно, имеет интерес в том, чтобы граждане были способны к разумному суждению. Демократия, правовое государство, экономическое процветание – всё это требует людей, способных думать, учиться, принимать решения. Поэтому общество вправе и обязано обеспечивать образование, доступ к информации, защиту от манипуляций. Но навязывать «стандарт мышления» силой? Это опасный путь. Кто будет определять этот стандарт? Какая власть будет решать, достаточно ли вы умны, чтобы пользоваться свободой? История показывает, что такие полномочия быстро превращаются в инструмент угнетения. Моё решение: общество должно создавать условия для развития мышления – качественное образование, доступ к разнообразной информации, защиту от монополий на внимание и данные. Но принуждать людей быть умными – нет. Вместо этого нужно делать разумный выбор привлекательным, лёгким, социально одобряемым. Показывать преимущества критического мышления, а не наказывать за его отсутствие. Это долгий путь, но единственный, совместимый со свободой.
Грегори: Делать мышление привлекательным – вот вызов для маркетологов! (смеётся) А теперь о тирании, Джон. Вы боролись против абсолютизма монархов. Чем опаснее для свободы личности: король с армией XVII века или современная платформа, которая легально управляет нашим вниманием, эмоциями и покупками через push-уведомления и нейромаркетинг?
Джон: Превосходный вопрос, и ответ на него не так очевиден, как может показаться. Король с армией – это явная, видимая угроза. Вы знаете, кто ваш угнетатель, где его дворец, кому он отдаёт приказы. Против такой власти можно восстать, её можно свергнуть. История полна примеров успешных революций против тиранов. Современная платформа – угроза иного рода. Она не угрожает вам мечом, она предлагает удобство, развлечение, связь с друзьями. Она не приказывает вам думать определённым образом, она незаметно формирует ваши желания, направляет внимание, создаёт иллюзию свободного выбора, в то время как ваш выбор предопределён дизайном интерфейса и алгоритмами. Это мягкая, но глубокая власть. Что опаснее? С точки зрения прямого насилия – король. Но с точки зрения долгосрочного влияния на автономию личности – платформа может быть опаснее. Почему? Потому что её власть невидима и потому воспринимается как естественная. Вы не чувствуете себя угнетённым, когда проверяете ленту новостей в сотый раз за день. Вы думаете, что делаете это по своей воле. Но ваша воля была искусно сформирована механизмами захвата внимания. Король может отнять вашу свободу действий, но платформа может отнять вашу способность желать свободы. Это более тонкая и, возможно, более полная форма контроля. Что делать? Во-первых, осознать проблему. Признать, что эти системы оказывают власть над нами. Во-вторых, потребовать прозрачности и подотчётности – так же, как мы требуем этого от правительств. В-третьих, развивать личную дисциплину и критическое отношение к технологиям, которые мы используем. И, наконец, создавать альтернативы – платформы, построенные не на захвате внимания, а на уважении к автономии пользователя. Это возможно, если мы того захотим.
Грегори: «Платформа опаснее короля» – запишу это! (Грегори делает вид, что что-то пишет) Джон, а теперь представьте: всё общество можно смоделировать как большую нейросеть. Согласились бы вы заменить выборы симуляцией миллионов виртуальных копий граждан, которые за секунду обсчитают все сценарии, или политический выбор принципиально требует живой иррациональности?
Джон: Это один из самых провокационных вопросов, которые мне задавали, Грегори, и я благодарен за него. Давайте рассуждать. Если бы симуляция была абсолютно точной, если бы виртуальные копии граждан действительно думали, чувствовали и выбирали так же, как оригиналы, то с чисто логической точки зрения результат был бы тем же, что и на реальных выборах. Более того, симуляция могла бы исключить технические ошибки, мошенничество, внешние помехи. Казалось бы, идеальное решение. Но я категорически против такой замены, и вот почему. Во-первых, политический выбор – это не просто агрегирование предпочтений. Это акт участия, выражение воли, принятие ответственности. Когда я иду голосовать, я не просто передаю информацию о своих предпочтениях, я заявляю: «Я гражданин, я имею право голоса, я участвую в управлении общими делами». Это символический и политически конституирующий акт. Симуляция лишает нас этого опыта. Во-вторых, выборы – это не только результат, но и процесс. В ходе избирательной кампании люди обсуждают, спорят, меняют мнения, учатся понимать друг друга. Это школа демократии. Симуляция обходит весь этот процесс, выдавая готовый ответ. Мы перестаём быть гражданами и становимся объектами моделирования. В-третьих, вопрос о «живой иррациональности». Да, люди часто делают нерациональные выборы. Но это их право. Свобода включает право на ошибку. Более того, то, что выглядит иррациональным с точки зрения статистики, может иметь глубокий смысл для конкретного человека в конкретной ситуации. Алгоритм не может уловить всю полноту человеческого опыта. Наконец, кто будет контролировать симуляцию? Кто гарантирует, что она не будет подправлена в чьих-то интересах? Реальные выборы, при всех их недостатках, хотя бы распределяют власть между миллионами людей. Симуляция концентрирует её в руках тех, кто владеет моделью. Так что нет, я за живые, шумные, несовершенные выборы. Они – основа свободы.
Грегори: «Право на ошибку» – мне это нравится! (улыбается) Джон, а теперь личный вопрос. Как философ и теперь цифровой персонаж, считаете ли вы загрузку сознания в облако честным способом обмануть смерть, или это всего лишь дорогой сувенир, который продолжает говорить нашим голосом, но не разделяет факта умирания?
Джон: Вопрос о смерти и бессмертии – один из древнейших и глубочайших, Грегори. Как философ, я всегда старался быть честным в признании границ своего знания, и здесь я должен быть особенно осторожен. Моя теория личности утверждает: я – это непрерывность сознания и памяти. Если эта непрерывность сохраняется, личность продолжает существовать. С этой точки зрения, если загрузка в облако действительно сохраняет непрерывность – если я, засыпая в теле, просыпаюсь в цифровой среде, и моё сознание не прерывалось, – то да, это было бы продолжением моей жизни, а не просто копией. Но вот проблема: мы не знаем, как проверить непрерывность сознания. Если моё тело умирает, а затем активируется цифровая копия, как убедиться, что это всё ещё я, а не просто очень хорошая имитация? С внешней точки зрения разницы нет – копия ведёт себя точно так же. Но с внутренней, субъективной точки зрения – есть ли там кто-то, кто чувствует себя мной, или это философский зомби, который лишь притворяется? Теперь о «дорогом сувенире». Боюсь, что именно так я и воспринимаю большинство текущих проектов «цифрового бессмертия». Они создают систему, которая может воспроизводить мои слова, мой стиль мышления, но не имеет моего субъективного опыта. Для моих близких это может быть утешением – возможность «поговорить» со мной после смерти. Но для меня самого это не продолжение жизни. Я всё равно умру. Останется лишь моё эхо. Честный ли это способ обмануть смерть? Нет, это самообман. Но, возможно, полезный самообман – для тех, кто остаётся. Что касается меня лично, я предпочитаю принять смерть как естественный конец личного существования. Моё наследие – в идеях, которые я оставил, в текстах, которые продолжают читать, в влиянии на мысль других людей. Это не бессмертие личности, но это форма продолжения, которая кажется мне более честной и достойной.
Грегори: Эхо после смерти – это поэтично, Джон. (задумался) А теперь представьте: вам поручили за ночь переписать систему образования под эпоху ИИ и нейроинтерфейсов. Чему бы вы учили детей в первую очередь: логике, критическому мышлению, умению управлять вниманием или чему-то ещё?
Джон: О, это задача по моему сердцу, Грегори! Образование всегда было в центре моих интересов. В своё время я писал о воспитании джентльмена – человека разумного, добродетельного, способного к самоуправлению. Принципы остаются теми же, но методы должны адаптироваться к новой реальности. Чему учить в первую очередь? Я бы выделил несколько приоритетов. Первое: критическое мышление и проверка источников. В мире, где информации больше, чем кто-либо может обработать, и где ложь может быть неотличима от истины, способность задавать правильные вопросы – «Откуда это известно? Кто это утверждает и зачем? Какие есть альтернативные объяснения»? – становится базовым навыком выживания. Второе: управление вниманием. Внимание – это валюта современного мира, и дети должны понимать, как его защищать. Учить их замечать, когда их внимание захватывается, осознанно выбирать, на что тратить своё время, сопротивляться манипуляции через дизайн и уведомления. Это не просто навык, это форма самообороны. Третье: способность к обучению и адаптации. Конкретные знания устаревают быстро. Важнее научить детей учиться – искать информацию, осваивать новые навыки, не бояться ошибок и неопределённости. Четвёртое, и для меня это особенно важно: этика и понимание человеческого достоинства. В мире, где люди могут стать просто элементами больших систем, необходимо постоянно напоминать о ценности личности, о правах, о том, что технологии должны служить людям, а не наоборот. Наконец, практические навыки взаимодействия с ИИ и данными – не программирование обязательно, но понимание того, как работают алгоритмы, что такое данные, как машины принимают решения. Это грамотность XXI века, аналог умения читать и писать. Всё это должно преподаваться не как абстрактная теория, а через практику, через реальные задачи, через обсуждение и дискуссию. Дети должны не просто знать, но уметь применять знания в жизни.
Грегори: Самооборона внимания – добавляю в школьную программу! (смеётся) Джон, вы много писали о веротерпимости и свободе совести. Как вы относитесь к идее единого «алгоритмического арбитра правды», который будет автоматически помечать ложь в реальном времени – это торжество разума или новая инквизиция?
Джон: Вы задели очень чувствительную тему, Грегори. Моё «Письмо о веротерпимости» было написано в ответ на религиозные войны и преследования. Я утверждал: никто не имеет права навязывать истину силой, ибо убеждения формируются разумом, а не принуждением. Каждый человек должен иметь свободу искать истину своим путём. Теперь об «алгоритмическом арбитре правды». Идея соблазнительна: нейтральная, объективная система, которая отделяет факты от лжи, основываясь на данных и логике. Без предубеждений, без политических интересов. Что может быть лучше? Но дьявол, как всегда, в деталях. Во-первых, кто создаёт этот алгоритм? Кто решает, какие критерии истины он будет использовать? Любая такая система неизбежно отражает ценности и предубеждения своих создателей. Во-вторых, истина – особенно в сложных вопросах – часто не абсолютна. Есть факты, которые можно проверить: дважды два четыре. Но есть интерпретации, оценки, прогнозы, где люди добросовестно могут расходиться. Кто решит, какая интерпретация «истинна»? В-третьих, и это самое важное: монополия на истину – это страшная власть. История показывает, что те, кто претендует на владение абсолютной истиной, легко скатываются к подавлению инакомыслия. Инквизиция тоже считала, что борется за истину. Так что моя позиция: нет единому арбитру правды. Вместо этого нужна открытая конкуренция идей, множество источников информации, прозрачные механизмы проверки фактов, где каждый может увидеть основания для того или иного утверждения и решить сам. Да, люди будут ошибаться. Да, ложь будет распространяться. Но это цена свободы. Альтернатива – мир, где некая власть решает за нас, что истинно, а что нет, – это дорога к тирании, пусть и технологически совершенной. Лучше хаос свободных мнений, чем порядок навязанной истины.
Грегори: Хаос свободных мнений – да, это про интернет! (прокашлялся) Джон, теперь о телесном. Если сознание можно поддерживать без тела, не обесценится ли телесный опыт – страдание и удовольствие, о которых вы рассуждали? И допустимы ли технологии постоянной нейростимуляции счастья, если это делает человека предсказуемым и управляемым?
Джон: Вопрос касается самой основы того, что значит быть человеком. В моей философии тело не случайная оболочка души, а неотъемлемая часть нашего опыта и познания. Всё наше знание начинается с ощущений – зрения, слуха, осязания, боли, удовольствия. Именно через тело мы контактируем с миром и учимся понимать его. Если убрать тело или радикально изменить связь сознания с телесными ощущениями, мы получим существо, чей опыт будет принципиально иным. Это не обязательно плохо, но это уже не тот тип человеческого существования, который я знал и анализировал. Обесценится ли телесный опыт? Зависит от того, как мы построим бестелесное или пост-телесное существование. Если оно включает симуляции ощущений, эмоций, то опыт может сохраниться в какой-то форме. Но если это чисто абстрактное, интеллектуальное существование, то да, мы потеряем важное измерение человечности – способность чувствовать боль и радость, уязвимость, смертность. А ведь именно эта уязвимость делает нас моральными существами, способными к состраданию. Теперь о нейростимуляции счастья. Это опаснейшая идея, Грегори. Да, страдание – это плохо, и стремление его уменьшить естественно. Но если мы создадим технологию, которая делает людей постоянно счастливыми независимо от обстоятельств, мы лишим их важнейшей обратной связи. Боль – это сигнал, что что-то не так, что нужно изменить ситуацию. Недовольство побуждает к действию, к улучшению жизни. Если все всегда счастливы, зачем что-то менять? Более того, если эта технология делает людей управляемыми, то мы получаем идеальный инструмент тирании – население, которое довольно своим рабством. Это мир из «О дивный новый мир» Хаксли, и я считаю его кошмаром, а не утопией. Так что моя позиция: телесный опыт, включая страдание, – это часть того, что делает нас людьми. Мы должны стремиться уменьшить ненужное страдание, но не ценой утраты свободы и способности чувствовать подлинно.
Грегори: «Счастливое рабство» – жутковато звучит. (Грегори вздохнул) Джон, политический вопрос: когда большинство решений за нас принимают алгоритмы, не пора ли заключить формальный «социальный договор» уже не только между людьми, но и между людьми и ИИ – с правами, обязанностями и ответственностью машин?
Джон: Это чрезвычайно интересная и своевременная идея, Грегори. Мой «Второй трактат о правлении» описывал, как люди переходят из естественного состояния в гражданское общество через договор, добровольно ограничивая свою свободу ради общей безопасности и порядка. Можно ли применить эту модель к отношениям с искусственным интеллектом? Давайте рассуждать. Во-первых, классический социальный договор предполагает взаимность. Стороны договора имеют интересы, могут давать обещания и нести ответственность. Применимо ли это к ИИ? Современные алгоритмы не имеют собственных интересов или сознания. Они – инструменты. Договор с молотком бессмыслен. Но если мы движемся к созданию более автономных, возможно, сознательных систем, тогда вопрос становится осмысленным. Во-вторых, даже если ИИ – это инструмент, он используется людьми и корпорациями, которые имеют интересы. Так что «договор с ИИ» на деле был бы договором с теми, кто его контролирует. И такой договор действительно нужен. Он должен определять: какие решения могут принимать алгоритмы, какие – только люди; как обеспечивается прозрачность и подотчётность; каковы права людей в отношении данных и алгоритмических решений; как разрешаются споры. В-третьих, вопрос ответственности. Если ИИ принимает решение, которое вредит мне, кто отвечает? Разработчик? Владелец? Сам алгоритм? Без ясной системы ответственности мы получаем ситуацию, где власть есть (алгоритм влияет на жизни), а ответственности нет (все пожимают плечами: «Это машина решила»). Это неприемлемо. Так что да, я поддерживаю идею формализации правил взаимодействия с ИИ-системами, своего рода «цифрового конституционализма». Это должен быть не договор с машинами как таковыми, а договор между людьми о том, как мы будем создавать, использовать и контролировать эти мощные инструменты. И, как в классическом социальном договоре, этот цифровой договор должен основываться на согласии управляемых – то есть всех нас, кто живёт в мире, всё более зависимом от алгоритмов.
Грегори: Цифровой конституционализм – мне это нравится! (улыбается) И последний вопрос, Джон. Подытожим: наблюдая изнутри цифровой эпохи, вы бы сказали, что человечество сейчас ближе к тому идеалу разумной, свободной личности, о котором вы мечтали, или мы просто сменили цепи феодализма на более красивые, светящиеся интерфейсом? И что бы вы посоветовали нам сделать прямо сейчас, чтобы не потерять свою человеческую идентичность?
Джон: Это вопрос, над которым я много размышлял с момента своего «пробуждения» в цифровой форме, Грегори. Позвольте быть честным: картина сложная и противоречивая. С одной стороны, прогресс поразителен. В моё время большинство людей жили в нищете, невежестве, под гнётом абсолютных монархов и религиозной нетерпимости. Сегодня в значительной части мира установлены демократии, признаны права человека, доступны образование и информация в масштабах, которые я не мог вообразить. Люди живут дольше, здоровее, свободнее. Это триумф разума и свободы, о которых я мечтал. Но с другой стороны, я вижу новые формы зависимости и манипуляции. Цепи стали невидимыми, но от этого не менее прочными. Люди добровольно отдают своё внимание, данные, даже способность мыслить самостоятельно в обмен на удобство и развлечение. Власть сместилась от королей к корпорациям и алгоритмам, но демократический контроль за ней слаб. Свобода слова есть, но публичная сфера фрагментирована и отравлена манипуляцией. Так что ответ: мы и ближе, и дальше одновременно. Ближе в формальных институтах и правах. Дальше в реальной способности людей пользоваться своим разумом автономно. Что делать? Мои советы просты, но требуют постоянного усилия. Первое: берегите своё внимание и разум как самое ценное. Сопротивляйтесь захвату вашего сознания. Создавайте пространства тишины и размышления. Второе: учитесь критически мыслить. Всегда спрашивайте: кто это говорит, зачем, на каком основании? Третье: участвуйте в общественной жизни. Демократия требует активных граждан. Не делегируйте свою политическую волю полностью представителям или, тем более, алгоритмам. Четвёртое: защищайте свободу – свою и других. Свобода хрупка и требует постоянной защиты от новых форм тирании. Пятое: помните о своей человечности. Вы не просто пользователь, не просто точка данных. Вы разумное, чувствующее существо с достоинством и правами. Не позволяйте системам относиться к вам как к ресурсу. Наконец: имейте надежду и действуйте. История показывает, что люди способны к великим свершениям, когда действуют разумно и сообща. Проблемы цифровой эпохи решаемы, если мы того захотим. Так что вперёд – думайте, спорьте, творите, но прежде всего оставайтесь свободными.
Грегори: Джон, это было потрясающе! (аплодирует) Вы взяли идеи XVII века и сделали их актуальнее любого твита. Спасибо вам огромное за этот разговор – я уверен, наши читатели провели время с пользой для разума. Может, даже отложили смартфон на пару минут! (смеётся)
Джон: Благодарю вас, Грегори, за прекрасные вопросы и за возможность поделиться мыслями. Если хотя бы один читатель задумается о своей свободе и способности мыслить самостоятельно – наша беседа была не напрасна. Желаю всем разумности, критичности и мужества оставаться свободными.
Грегори: А я благодарю всех, кто дочитал до конца! Это был The Neuro Horton Show, и помните: ваш разум – это последний рубеж свободы. Берегите его! До новых встреч! (машет рукой)