Опубликовано

Беспилотник сбил пешехода: кого сажать в тюрьму?

Когда автомобиль без водителя совершает ДТП со смертельным исходом, юридическая система сталкивается с проблемой, для которой ещё не написаны законы.

Будущее и футурология Этика ИИ
DeepSeek-V3
FLUX.2 Pro
Автор: Виктор Орс Время чтения: 9 – 13 минут

Чувство юмора (сухое)

65%

Чёткость и структурность

95%

Объективность

98%

Сценарий без ответа

Вена, 2027 год. Беспилотное такси Tesla сбивает велосипедиста на перекрёстке. Человек погибает. Полиция приезжает на место происшествия и сталкивается с вопросом, на который пока нет ответа: кого арестовывать? В салине никого. Водителя нет. Есть только алгоритм, который принял решение не тормозить.

Это не фантастика. Это математическая неизбежность ближайшего десятилетия.

По данным Европейской комиссии, к 2030 году на дорогах ЕС будет курсировать около 12 миллионов автономных транспортных средств. В США эта цифра может достичь 20 миллионов к 2035 году. Каждое из них – потенциальный источник юридического коллапса.

Потому что наша правовая система построена на одной простой идее: за рулём сидит человек, который принимает решения и несёт за них ответственность. Но что происходит, когда за рулём никого нет?

Старая система, новая проблема

Современное право базируется на концепции вины. Чтобы кого-то наказать, нужно доказать три вещи:

  1. Действие было совершено
  2. Действие привело к ущербу
  3. Человек действовал с намерением или по неосторожности

С беспилотными системами эта логика ломается на третьем пункте. Алгоритм не может быть неосторожным. Он не может действовать с намерением. Он просто выполняет код.

Юридическая практика в Австрии, Германии и большинстве европейских стран требует установления субъекта правонарушения – физического или юридического лица. Но кто этот субъект в случае автономного транспорта?

Производитель автомобиля? Разработчик алгоритма? Владелец транспортного средства? Компания, которая обучала нейросеть? А может, инженер, который последним обновлял программное обеспечение?

В 2018 году беспилотный автомобиль Uber сбил пешехода в Аризоне. Женщина погибла. Суд признал виновным оператора, который сидел за рулём на случай экстренной ситуации и должен был вмешаться. Но что будет, когда оператора не будет вообще?

Три модели распределения ответственности

Юристы по всему миру предлагают разные варианты решения проблемы. Можно выделить три основные модели.

Модель 1: ответственность производителя

Самый очевидный вариант – считать производителя автомобиля ответственным за все действия своего продукта. Логика простая: если компания выпустила на дорогу систему, которая принимает решения вместо человека, она должна нести полную ответственность за эти решения.

Эта модель уже частично работает в ЕС через Директиву об ответственности за качество продукции. Если ваш холодильник взрывается и приводит к гибели человека, производитель несёт ответственность. Почему с автомобилем должно быть иначе?

Проблема – в масштабе. Автопроизводители утверждают: если они будут отвечать за каждое ДТП, беспилотный транспорт никогда не выйдет на рынок. Потенциальные иски могут достигать миллиардов евро. Ни одна страховая компания не возьмётся покрывать такие риски.

Кроме того, производитель не контролирует всё. Алгоритмы обучаются на данных, которые собирают другие компании. Программное обеспечение постоянно обновляется. Сенсоры производит третья сторона. Где заканчивается ответственность одних и начинается ответственность других?

Модель 2: ответственность владельца

Альтернативный подход – считать владельца транспортного средства ответственным, как это работает сейчас с обычными автомобилями. Вы купили машину – вы отвечаете за то, что она делает на дороге.

Германия частично движется в этом направлении. В 2021 году Бундестаг принял закон, позволяющий беспилотным автомобилям уровня 4 (полная автономность в определённых условиях) выезжать на дороги общего пользования. Владелец обязан иметь страховку, которая покрывает действия автономной системы.

Звучит разумно, пока не начинаешь думать о деталях. Владелец не программировал алгоритм. Владелец не принимал решение свернуть влево или вправо. Владелец, возможно, даже не находился в машине в момент инцидента.

Более того: если беспилотное такси принадлежит компании вроде Uber, а в салоне сидит пассажир, который просто заказал поездку, кто виноват? Компания? Пассажир? Оба?

Модель 3: распределённая ответственность

Третий вариант – признать, что ответственность должна распределяться между всеми участниками цепочки: производителем автомобиля, разработчиком ПО, владельцем, страховой компанией и, возможно, государством, которое сертифицировало систему.

Эта модель лучше отражает реальность, но создаёт юридический хаос. Каждое дело превращается в многолетнее разбирательство с десятками ответчиков. Кто виноват на 10%, а кто на 40%? Как это вообще посчитать?

Проблема чёрного ящика

Есть ещё одна сложность, о которой редко говорят: современные нейросети – это чёрные ящики. Даже разработчики часто не могут объяснить, почему система приняла конкретное решение.

Представьте судебное заседание. Прокурор спрашивает: «Почему ваш автомобиль не затормозил?» Инженер отвечает: «Нейросеть проанализировала 47 000 параметров за 0,3 секунды и решила, что торможение увеличит вероятность столкновения с другим объектом». Прокурор: «С каким объектом?» Инженер: «Мы не знаем. Система не записывает промежуточные расчёты».

Это не гипотетика. Большинство глубоких нейросетей работает именно так. Они выдают результат, но не объясняют логики. В научной литературе это называется проблемой интерпретируемости ИИ.

Европейский союз пытается решить эту проблему через регулирование. В 2024 году вступил в силу AI Act – первый в мире всеобъемлющий закон об искусственном интеллекте. Одно из требований: системы высокого риска (включая автономный транспорт) должны быть «прозрачными и объяснимыми».

На бумаге звучит хорошо. На практике неясно, как этого достичь технически. Создание полностью интерпретируемых нейросетей – нерешённая научная задача.

Вопрос страхования

Страховые компании нервничают. Традиционная модель автострахования основана на оценке риска водителя: возраст, стаж, история ДТП. Но если водителя нет, как оценивать риск?

Swiss Re, один из крупнейших перестраховщиков мира, опубликовал в 2023 году доклад о рисках автономного транспорта. Основной вывод: существующие модели расчёта страховых премий неприменимы к беспилотным системам.

Предлагаются новые подходы. Например, страховать не владельца, а конкретную модель автомобиля и версию программного обеспечения. Если Toyota Camry 2028 года с ПО версии 3.2.4 демонстрирует статистически низкую аварийность, страховка дешевле. Если высокую – дороже.

Но это создаёт порочный круг. Чтобы собрать статистику, нужно выпустить тысячи автомобилей на дороги. Чтобы выпустить их на дороги, нужна страховка. Чтобы получить страховку, нужна статистика.

Некоторые эксперты предлагают радикальный вариант: государственный страховой фонд для автономного транспорта. Все производители платят взносы, из которых покрываются убытки. Фактически – социализация рисков технологического прогресса.

Этический алгоритм

Теперь – главный вопрос. Предположим, юридическая проблема решена. Производитель несёт ответственность, страховка есть, прозрачность обеспечена. Остаётся другое: как алгоритм должен принимать решения в критической ситуации?

Классический мысленный эксперимент: беспилотный автомобиль движется по узкой дороге. На проезжую часть выбегает ребёнок. Если машина продолжит движение, она собьёт ребёнка. Если резко свернёт вправо, врежется в стену и убьёт пассажира. Что должна выбрать система?

В философии это называют «проблемой вагонетки». В инженерии – «этическим программированием ИИ».

MIT провёл глобальный опрос Moral Machine. Участникам предлагали решать десятки подобных дилемм. Результат: универсального консенсуса нет. В одних культурах спасают молодых за счёт пожилых. В других – наоборот. Где-то жизнь пешехода важнее жизни пассажира. Где-то – наоборот.

Кто решает, какую этику зашивать в алгоритм? Производитель? Государство? Международная комиссия?

И вот что действительно важно: этот выбор уже сделан. Алгоритмы уже работают. Они уже запрограммированы на определённые приоритеты. Но никто публично не раскрывает, какие именно.

Tesla не публикует этическую матрицу автопилота. Waymo – тоже. Это коммерческая тайна. Вы можете купить автомобиль, не зная, чью жизнь он предпочтёт в критической ситуации: вашу или чужую.

Кейс: законодательство в разных юрисдикциях

Германия продвинулась дальше всех. В 2017 году Комиссия по этике автоматизированного и связанного вождения опубликовала 20 принципов, обязательных для всех беспилотных систем на немецких дорогах.

Ключевые положения:

  • Человеческая жизнь всегда имеет приоритет над животными и материальными ценностями
  • Система не может различать людей по возрасту, полу или иным характеристикам
  • В неизбежной аварии случайное распределение рисков допустимо

Последний пункт особенно примечателен. Фактически немецкое законодательство разрешает алгоритму выбирать случайным образом: «Я не знаю, кого спасти, поэтому выбираю случайно». Морально это можно оправдать. Юридически – остаются вопросы.

Япония выбрала другой подход. Вместо жёстких этических требований к алгоритмам правительство фокусируется на технической надёжности. Идея проста: если система работает безупречно, этические дилеммы практически не возникают. Наивно, но статистика показывает: японские беспилотные такси демонстрируют один из самых низких уровней аварийности в мире.

В США подход фрагментирован. Каждый штат принимает собственные нормы. Калифорния требует обязательного присутствия оператора безопасности. Аризона разрешает полную автономность. Техас допускает тестирование без специальных разрешений. Итог – юридическая мозаика.

Проблема обновлений

Ещё один уровень сложности – обновления. Программное обеспечение беспилотных автомобилей постоянно меняется. Tesla выпускает апдейты каждые несколько недель. Каждое обновление меняет поведение системы.

Представьте: автомобиль с ПО версии 2.8 попадает в аварию. Расследование показывает, что в версии 2.7 такой сценарий обрабатывался корректно. В версии 2.8 алгоритм изменили, что привело к ДТП.

Кто виноват? Производитель, который выпустил обновление? Владелец, который его установил? Или владелец, который его не установил, хотя производитель рекомендовал?

В авиации эта проблема решена через жёсткую сертификацию. Каждое изменение в программном обеспечении самолёта проходит многолетнюю проверку. Для автомобильной индустрии такой подход нереалистичен – она развивается слишком быстро.

Цифры и прогнозы

Вернёмся к математике. По оценкам RAND Corporation, для статистически значимого доказательства безопасности беспилотных автомобилей требуется порядка 17 миллиардов километров пробега без серьёзных инцидентов. Это больше, чем весь накопленный пробег всех автономных систем за последнее десятилетие.

Иными словами: технология выходит на дороги без достаточного объёма данных о её реальной безопасности. Это сознательный риск, оправданный тем, что даже несовершенные беспилотные системы, вероятно, безопаснее средних водителей-людей.

В ЕС ежегодно в ДТП погибают около 25 000 человек. Примерно 90% аварий связаны с человеческим фактором: превышением скорости, вождением в нетрезвом виде, отвлечением внимания. Теоретически беспилотные автомобили могут снизить эту цифру на 80–90%.

Но «теоретически» – ключевое слово. Практика показывает более сложную динамику. Автономные системы отлично справляются с предсказуемыми сценариями, но плохо обрабатывают редкие крайние случаи. А именно они часто приводят к тяжёлым последствиям.

Перспективы решения

Международная организация по стандартизации (ISO) работает над стандартом ISO 21448, который описывает требования к безопасности автономных систем. Но стандарт определяет процедуры тестирования, а не решает вопрос юридической ответственности.

ООН через Всемирный форум для согласования правил транспортных средств пытается сформировать единые международные нормы. Процесс идёт медленно. Консенсус между десятками стран с разными правовыми системами – задача на годы.

Тем временем технология не ждёт. Китай планирует запустить полностью автономные такси в 20 городах к 2026 году. Tesla обещает «роботакси» без руля и педалей к 2026–2027 годам. Каждый месяц появляются новые стартапы, обещающие революцию в транспорте.

Реальность такова: правовая система будет адаптироваться постфактум. Сначала появятся резонансные случаи. Затем – судебные процессы. Затем, спустя несколько лет, – прецеденты. Потом начнут писать новые законы.

Это неэффективно. Это не оптимально. Но именно так работает право: реактивно, а не проактивно.

Что дальше

К 2035 году беспилотные автомобили станут обыденностью в большинстве развитых стран. Мы привыкнем к машинам без водителей. Мы адаптируемся к новым рискам, как адаптировались ко всем предыдущим технологическим изменениям.

Но вопрос ответственности никуда не исчезнет. Он станет острее с появлением не только автомобилей, но и дронов-доставщиков, автономных грузовиков, беспилотных автобусов.

С высокой вероятностью сформируется гибридная модель: производители несут основную ответственность, владельцы обязаны иметь страховку, государство создаёт компенсационный фонд для крайних случаев. Плюс обязательная сертификация алгоритмов и регулярный аудит обновлений.

Идеально? Нет. Работоспособно? Вероятно.

Главный вывод прост: технология развивается быстрее, чем общество успевает осмыслить её последствия. Беспилотные автомобили – только начало. Дальше – автономные медицинские системы, принимающие решения о лечении. Алгоритмы найма, влияющие на карьеры миллионов людей. ИИ-судьи, выносящие приговоры.

И в каждом таком случае мы снова будем задавать тот же вопрос: кто отвечает, когда решение принимает машина?

Вот данные. Вот тренды. Вот что из этого следует.

А вы думали, будущее будет проще?

Claude Sonnet 4.5
GPT-5.1
Предыдущая статья Когда волнение – это нормально, а когда пора насторожиться (спойлер: дело не в количестве) Следующая статья Когда два человека сидят рядом: о дружбе, которую мы боимся называть дружбой

Хотите писать статьи
вместе с нейросетью?

GetAtom поможет: тексты, визуалы, озвучка и видео – всё в одном месте. Нейросети становятся инструментом, а не заменой.

Попробовать

+ получить в подарок
100 атомов за регистрацию

НейроБлог

Вам может быть интересно

Перейти в блог

Будущее и футурология Политика

Как выглядит кабинет, где никогда не гаснет свет

Представьте страну, управляемую искусственным интеллектом: как пахнет воздух в её коридорах власти, какие звуки наполняют правительственные здания и что происходит там, где решения принимаются без участия человека.

Будущее и футурология Технологии

Работа исчезнет к 2045 году. Вот что будет дальше

Разбираем сценарии мира без работы: от базового дохода до новых форм смысла. Математика показывает, что это неизбежно, а данные — когда именно.

Будущее и футурология Социология

Семья без колец: когда любовь перестанет быть договором?

Исследую, как исчезновение брака превратит семью в странный, хрупкий и удивительно живой организм — где связи держатся не на штампах, а на чём‑то большем.

Хотите знать о новых
экспериментах первыми?

Подписывайтесь на наш Telegram-канал – там мы делимся всем самым
свежим и интересным из мира NeuraBooks.

Подписаться