Границы, риски и будущее ИИ

Правовое регулирование искусственного интеллекта и основные проблемы законодательства в сфере ИИ

Регулирование ИИ: как общество выстраивает правила для технологий, опережающих законодательство

Как государства, компании и международные организации пытаются регулировать ИИ – и почему это сложнее, чем кажется.

Любая достаточно мощная технология рано или поздно сталкивается с вопросом: кто и на каких условиях ею управляет? Паровой двигатель потребовал технических стандартов и трудового законодательства. Автомобиль – правил дорожного движения, страхования и лицензирования водителей. Авиация – международных соглашений о воздушном пространстве. Интернет – норм об ответственности платформ, защите персональных данных и цифровой собственности.

Искусственный интеллект не исключение. Он уже внедрён в банковские решения, медицинскую диагностику, системы найма, уголовное правосудие и военные разработки. И точно так же, как и в случае с предшествующими технологиями, он порождает вопросы, на которые существующие правовые системы не дают готовых ответов: кто несёт ответственность за решение алгоритма? Как оспорить вывод, сделанный моделью? Чьи данные были использованы при обучении и на каких условиях?

Регулирование – это попытка общества сформулировать ответы на эти вопросы до того, как их отсутствие начнёт наносить реальный вред. Именно эта логика, а не политические предпочтения или страх перед прогрессом, лежит в основе текущей регуляторной активности вокруг ИИ.

Три уровня правил: стандарты, корпоративные политики и законы

Когда говорят о регулировании ИИ, нередко подразумевают только государственное законодательство. Но реальная картина сложнее: правила формируются на нескольких уровнях, которые существуют параллельно, иногда дополняют друг друга, а иногда вступают в противоречие.

Технические стандарты – наименее заметный, но принципиально важный уровень. Это документы, которые разрабатывают специализированные организации: международные комитеты по стандартизации, отраслевые ассоциации, академические консорциумы. Они описывают, как должна быть устроена система, чтобы считаться надёжной, воспроизводимой и проверяемой. Стандарты не имеют юридической силы сами по себе, но на них опираются как корпоративные политики, так и законодательство. Фактически они задают технический язык, без которого любое правовое регулирование было бы бессодержательным: нельзя требовать «прозрачности алгоритма», не определив, что именно под этим понимается.

Корпоративные политики – второй уровень. Компании, разрабатывающие и внедряющие ИИ, формируют собственные правила: принципы допустимого использования, внутренние комитеты по этике, ограничения на применение технологий в определённых контекстах. Эти правила нередко появляются быстрее, чем государственное законодательство, – просто потому, что бизнес не может ждать, пока законодатели разберутся в технических деталях. Корпоративные политики гибче, могут оперативно пересматриваться, но при этом остаются добровольными и отражают прежде всего интересы самой организации, а не общества в целом.

Государственное законодательство – наиболее формализованный уровень. Это законы, директивы и подзаконные акты, устанавливающие обязательные требования с механизмами принудительного исполнения. Именно здесь фиксируется ответственность, определяются права граждан и обязанности организаций. Законодательство по своей природе медлительнее: процесс его разработки требует согласования множества интересов, экспертизы и политических решений. Это одновременно его слабость – оно всегда отстаёт от технологий – и его сила: именно через закон устанавливаются обязательные для всех правила, а не только для тех, кто готов соблюдать их добровольно.

Между этими тремя уровнями нет жёсткой иерархии. На практике они взаимодействуют: технические стандарты ложатся в основу законодательных требований; законы стимулируют компании разрабатывать внутренние политики; корпоративные практики, в свою очередь, влияют на то, как формулируются стандарты. Регулирование – это не единый документ, а экосистема взаимосвязанных правил.

Влияние государственного регулирования на развитие инноваций и технологий ИИ

Инновации и контроль: не противоположности, а напряжение

В публичных дискуссиях регулирование часто представляется как угроза инновациям: введёте правила – замедлите развитие. Это упрощение, которое игнорирует обратную сторону медали.

Отсутствие предсказуемых правил тоже тормозит развитие – только иначе. Компании, которые не понимают, какие требования к ним будут предъявлены завтра, вынуждены либо чрезмерно перестраховываться, либо принимать на себя неопределённые риски. Инвесторы осторожнее вкладывают средства в отрасль, где правовая среда непрозрачна. Пользователи меньше доверяют системам, если не понимают, кто несёт ответственность в случае ошибки.

С этой точки зрения продуманное регулирование – не барьер для инноваций, а условие их устойчивости. Авиация не стала менее развитой оттого, что самолёты проходят обязательную сертификацию, а пилоты – лицензирование. Напротив, именно наличие единых стандартов безопасности позволило авиационной отрасли масштабироваться глобально.

Вместе с тем напряжение между скоростью технологического прогресса и скоростью выработки правил реально и неустранимо. Законодательный цикл занимает годы, в то время как технологии меняются за месяцы. Любой закон, написанный под конкретную версию технологии, рискует устареть прежде, чем вступит в силу.

Именно поэтому одна из ключевых дискуссий в регуляторном сообществе сегодня посвящена тому, как строить законы: через конкретные технические требования или через общие принципы и цели. Конкретные требования проще проверить, но они быстро теряют актуальность. Принципиальный подход – «система должна быть безопасной и объяснимой» – сохраняет значимость дольше, но требует гораздо больше работы по интерпретации в каждом конкретном случае.

Основные сложности юридического описания и правового статуса нейросетей

Почему ИИ труднее описать юридически, чем другие технологии

Большинство технологий, которые государства регулировали прежде, были материальными или хотя бы чётко ограниченными: конкретное устройство, процесс или продукт. Автомобиль можно описать, измерить и сертифицировать. Лекарство – проверить на стадии клинических испытаний.

ИИ как объект регулирования устроен иначе. Во-первых, это не один объект, а обширный класс разнородных технологий: статистические модели прогнозирования, системы компьютерного зрения, генеративные нейросети, алгоритмы ранжирования. Все они объединяются под общим термином, хотя работают по-разному и несут разные риски. Универсальный закон «об ИИ» неизбежно окажется либо слишком широким, чтобы быть применимым, либо слишком узким, чтобы охватить всё разнообразие систем.

Во-вторых, одна и та же модель может использоваться в совершенно разных контекстах – от рекомендации фильмов до оценки кредитоспособности. Риски в этих случаях несопоставимы. Это ставит вопрос: регулировать саму технологию или сферу её применения? Большинство современных регуляторных подходов склоняется ко второму варианту, сосредотачиваясь на областях высокого риска: здравоохранении, уголовном правосудии, управлении критической инфраструктурой.

В-третьих, ИИ-системы, основанные на машинном обучении, не имеют жёстко фиксированного поведения. Модель, обученная на одном наборе данных, может выдавать иные результаты при изменении входной информации или в процессе дообучения. Это усложняет любую форму сертификации: принцип «протестировали и одобрили» здесь работает иначе, чем с физическим устройством.

В-четвёртых, возникают фундаментальные вопросы ответственности. Если алгоритм принял решение, которое причинило вред, кто должен отвечать – разработчик модели, компания, которая её внедрила, или организация, использовавшая её в конкретной ситуации? Цепочка участников велика, а чёткого правового ответа на вопрос о распределении ответственности в большинстве юрисдикций пока нет.

Перспективы развития законодательной базы и международных стандартов управления ИИ

Регулирование как структурирование неопределённости

Было бы ошибкой ожидать, что регулирование ИИ когда-нибудь достигнет завершённого состояния – точки, в которой все вопросы решены, а правила окончательно зафиксированы. Этого не произошло с интернетом, который регулируется уже несколько десятилетий и по-прежнему порождает новые правовые коллизии. Вряд ли это произойдёт и с ИИ.

Более реалистичное описание: регулирование – это непрерывный процесс адаптации правил к меняющейся технологической реальности. Правовые рамки неизбежно отстают – это не дефект системы, а следствие её природы. Законы пишутся на основе уже известного опыта, тогда как технологии открывают новое.

Важно понимать, что это отставание не означает отсутствия правил. Даже в отсутствие специальных законов об ИИ существуют общие нормы гражданской ответственности, защиты персональных данных, антидискриминационного законодательства и защиты прав потребителей – и они применимы к действиям с участием ИИ-систем уже сейчас. Специальное регулирование не создаёт правила с нуля, а уточняет и адаптирует существующие нормы к новым условиям.

Международное измерение добавляет ещё один слой сложности. Технологии не признают государственных границ: модель, разработанная в одной стране, может использоваться в другой и обучаться на данных из третьей. Это делает международную координацию – хотя бы в части минимальных общих стандартов – не просто желательной, но необходимой. Попытки такой координации уже ведутся на уровне международных организаций, хотя темп этой работы значительно уступает скорости развития самих технологий.

Наконец, стоит зафиксировать: регулирование – это не только ограничение. Это ещё и создание предсказуемой среды, в которой технологии могут развиваться, а участники рынка – принимать решения, понимая свои права и обязательства. Страховая отрасль не сократилась оттого, что государства обязали её соблюдать определённые стандарты резервирования. Фармацевтика не перестала разрабатывать препараты после введения обязательных испытаний. Регулирование задаёт условия игры – оно не отменяет саму игру.

Там, где правила отсутствуют или непрозрачны, риски принимают на себя либо компании (которые могут позволить себе такую неопределённость), либо конечные пользователи (которые чаще всего не могут). Именно эта асимметрия, а не абстрактный страх перед технологиями, делает регулирование практически необходимым.

Регулирование ИИ – не попытка остановить прогресс и не гарантия того, что всё пойдёт идеально. Это постепенный, противоречивый и бесконечный процесс выстраивания правил в ответ на то, как технологии меняют возможности, риски и распределение власти в обществе. Понимать этот процесс – значит видеть его таким, какой он есть: сложным, медленным, но при этом необходимым.

Предыдущая статья 33. Этические измерения ИИ: авторство, приватность, предвзятость и ответственность Границы, риски и будущее ИИ Следующая статья 35. Автоматизация и рынок труда: трансформация задач, а не исчезновение профессий Границы, риски и будущее ИИ