Хотите, перезвоним Вам
в удобное время?
обратный
звонок

Ответственность искусственного интеллекта в правовом поле

В современном мире технологии искусственного интеллекта могут принести людям как большую пользу, так и серьезный вред. Их быстрое развитие приводит к тому, что принятие решений человеком порой отходит на второй план. 

Беспилотник, частично управляемый пилотом, вдруг разбивается и причиняет ущерб; программа с искусственным интеллектом диагностирует неправильное медицинское лечение; автомобиль без водителя сбивает пешехода... Кто будет нести ответственность за действия машин в каждом из этих случаев? Производитель беспилотника? Автор медицинской программы? Собственник автомобиля? Разработчик системы искусственного интеллекта? Сама система искусственного интеллекта? Какой должна быть эта ответственность?

Кто виноват? 

Юристы предлагают различные подходы к определению правового статуса искусственного интеллекта. Некоторые не исключают даже полное равенство в правах с человеком. Однако более жизнеспособной представляется теория, которая приближает правовое положение ИИ к юридическим лицам.

Вместе с тем, существует и критика предложений наделить искусственный интеллект самостоятельной правосубъектностью, даже частичной, так как, по мнению ряда юристов, такой статус ИИ может повлечь возможность возложения на него юридической ответственности вместо реальных виновников. 

Участие множества сторон в деятельности ИИ (разработчики и провайдеры данных, создатели и эксплуатанты и т.д.), приводит к тому, ответственность искусственного интеллекта трудно установить, когда что-то идет не так, и необходимо учитывать множество факторов, например:

  • был ли нанесен ущерб при эксплуатации и соблюдались ли пользователем инструкции, имеются ли в системе искусственного интеллекта какие-либо общие или конкретные ограничениями и были ли они доведены до сведения пользователя – от ответа на этот вопрос зависит степень вины пользователя или собственника технологии в инциденте;
  • если ущерб нанесен в то время, когда система искусственного интеллекта еще обучалась, виноват ли разработчик или поставщик данных;
  • возможно ли проследить причиненный ущерб до стадии разработки или производства системы искусственного интеллекта, что позволяет возложить ответственность на дизайнера или производителя, и т.д. 

Как мы видим, одной из основных правовых проблем юридической ответственности искусственного интеллекта и смежных технологий является вопрос распределения ответственности за действия ИИ между задействованными субъектами - разработчиком, собственником, непосредственным пользователем и др. При этом при решении данной задачи необходимо стремиться к балансу интересов граждан, бизнеса и государства.

Что делать?

Развитие технологий искусственного интеллекта в течение последних лет уже привело к осознанию, что необходимо разрабатывать его правовое регулирование, включая вопросы юридической ответственности искусственного интеллекта. В связи с этим во многих государствах, в том числе и в России, уже приняты стратегические документы в области развития технологий ИИ, которые позволят в дальнейшем развивать и уточнять правовое положение таких технологий. Также разрабатываются нормы непосредственного действия, регулирующие отдельные вопросы создания и эксплуатации роботов и искусственного интеллекта. Ниже перечислены несколько основных примеров такой законодательной деятельности и инициатив.

ЕС

В Европе в сентябре 2022 было принято два новых предложения по адаптации правил ответственности к цифровой эпохе. Было предложено модернизировать существующие правила строгой ответственности производителей за дефектную продукцию (от интеллектуальных технологий до фармацевтических препаратов) с целью дать предприятиям правовую определенность, чтобы они могли инвестировать в инновационные продукты, и одновременно обеспечить потерпевшим справедливую компенсацию, когда дефектные продукты, включая цифровые, причиняют вред.

Вторым предложением стала целенаправленная гармонизация национальных правил ответственности за искусственный интеллект, что должно облегчить получение компенсации жертвам ущерба, связанного с ИИ. В идеале новые правила должны обеспечить жертвам такие же стандарты защиты в случае причинения вреда действиями ИИ, как и в случае причинения вреда при любых других обстоятельствах.

Данные инициативы являются развитием «Закона Евросоюза об искусственном интеллекте», проект которого был впервые опубликован Европейской Комиссией 21 апреля 2021 г., а сейчас находится на завершающей стадии процедуры принятия.

В части юридической ответственности искусственного интеллекта Закон об ИИ придает особое значение выполнению обязательств стороной, которая размещает систему ИИ на рынке (или вносит в нее существенные изменения), или "поставщиком".

Поставщиком может быть сторонний поставщик или компания, разработавшая ИИ. Например, обязательства по проверке перед выпуском системы ИИ на рынок будут возложены на дистрибьюторов или импортеров системы ИИ, а не на первоначального поставщика системы ИИ. 

Одновременно пользователи системы ИИ должны подчиняться требованиям ответственного проектирования, разработки, развертывания и мониторинга. В обязанности пользователей в соответствии с проектом Закона об ИИ также входит обеспечение качества данных, мониторинг и протоколирование системы, соблюдение процедур аудита, выполнение применимых требований прозрачности и поддержание системы, которая управляет рисками искусственного интеллекта.

США

В 2020 году в США появился Закон о национальной инициативе в области искусственного интеллекта  (National Artificial Intelligence Initiative Act of 2020). Ответственность ИИ стала одним из главных принципов правового регулирования технологической сферы. Не менее важны беспристрастность, устойчивость и возможность контроля. Одновременно с желанием сохранить мировое конкурентное преимущество американское законотворчество в сфере искусственного интеллекта отдает приоритет своей национальной безопасности.  
Немаловажное значение в США придается и вопросам этики при применении современных технологий. Так, например, появились примеры, когда компании отказываются использовать программы, если следствием может быть предубеждение против отдельных групп лиц. Известен случай отказа IBM от деятельности по использованию биометрии и анализа изображений, например, в целях наблюдения за гражданами. Такой подход помогает предотвратить потенциальный вред гражданским правам, а следовательно, является профилактикой решения вопроса о юридической ответственности искусственного интеллекта.

Россия

Указ Президента РФ «О развитии искусственного интеллекта в Российской Федерации» (№ 490  от 10.10.2019) определил базовые термины и также установил такие принципы использования искусственного интеллекта как безопасность и технологический суверенитет. Не оставлены без внимания и прозрачность и защита гражданских прав и свобод. 

Также следует упомянуть распоряжение Правительства Российской Федерации «Об утверждении Концепции развития регулирования отношений в сфере технологий искусственного интеллекта и робототехники на период до 2024 г.» (№ 2129-р от 19.08.2020). Документ посвящен регулированию оборота данных, а также юридической ответственности в случае применения искусственного интеллекта. Затронуты вопросы информационной безопасности ИИ и возможности его применения в различных сферах жизни (транспорт, космическая деятельность, медицина и др). 

Подписанный в 2021 году Кодекс этики искусственного интеллекта, хоть и носит рекомендательный характер, но является важным шагом в создании объединяющих правил, способствующих развитию технологий искусственного интеллекта в России. На первое место при внедрении ИИ Кодекс выносит такие принципы как ответственность, конфиденциальность и безопасность.  

Одновременно в России вводятся различные экспериментальные правовые режимы в целях создания необходимых условий для разработки и внедрения технологий искусственного интеллекта, что также способствует дальнейшему развитию правовой базы для инновационной деятельности. Так, например, обсуждается законопроект о беспилотных автомобилях, в котором, в том числе, должны быть урегулированы вопросы ответственности как компаний, разрабатывающих такие технологии, так и владельцев транспортных средств. 

Вкалывают роботы, счастлив человек

Помимо различных законодательных инициатив в некоторых секторах разрабатываются специальные правила для борьбы с рисками, связанными с системами ИИ. Например, в Великобритании предлагается ввести правила, согласно которым страховщик будет нести основную ответственность в случае аварий, вызванных автономными транспортными средствами. Также рассматривается возможность создания специальных компенсационных фондов в качестве альтернативного инструмента возмещения вреда.  

В целом в мире мы можем наблюдать тенденцию на создание такого правового регулирования новых технологий, которое позволит использовать науку и прогресс на благо человека, но и не забывать о том, что робототехнические устройства являются всего лишь вещами, которые должны эксплуатироваться их пользователями в условиях безопасности и соблюдения интересов как отдельного человека, так и общества в целом.

Марина Материк