Вы находитесь на странице: 1из 2

27.03.

2020
Выполнил студент группы 9318 Бурибаев Тимур Наврузович

Правовое регулирование качественно новых явлений всегда представляет


значительные трудности для законодателя абсолютно в любой отрасли права. На
современном этапе развития общества проблемные вопросы возникают в сфере
геномных исследований, робототехники, всеобщей информатизации и  др.
Так называемый НТП не всегда приносит человечеству пользу, но вместе с
тем несет новые опасности и трудности. Однако те, кто боится прогресса или же,
что не может не вызывать возмущения, противостоят ему – такие индивиды
являются рудиментами нашего общества. Я считаю, что именно наука и прогресс
во всех сферах общества является тем критерием, что отличает человека от
животного. Тем не менее, я нисколько не умаляю значимость и серьезность
многих проблем, связанных со стремительным развитием AI (artificial intelligence
– искусственный интеллект, далее AI). За последние несколько лет произошло
несколько резонансных инцидентов, участниками которых с одной стороны был
искусственный интеллект, а с другой – человек-жертва. Среди таких можно
назвать:
1) Ситуацию, когда в медицинское учреждение поступил годовалый ребенок
с температурой (40º С), обезвоживанием и общей слабостью. Диагностика
осуществлялась специальной медицинской системой искусственного интеллекта,
согласно выводам которой младенец был болен гриппом и ему необходимо
лечение посредством использования анальгетиков и инфузии жидкостей.
Медицинский персонал действовал в строгом соответствии с назначенным
лечением, однако через пять часов ребенок скончался. Вскрытие показало, что
причиной смерти младенца стала тяжелая бактериальная инфекция — диагноз
системы оказался ошибочным
2) В мае 2016 года машина под управлением компьютера не распознала
препятствие на дороге, и водитель автомобиля погиб в результате аварии. Это
была машина американского производителя Tesla. Информация об аварии стала
известна от дорожной полиции Флориды, а не от самой компании. По данным
дорожной полиции, на перекрестке перед автомобилем Tesla грузовик с прицепом
осуществлял поворот. Борт прицепа имел высокий просвет, и автопилот
воспринял это как свободную проезжую часть. В результате машина на большой
скорости врезалась в прицеп.
3) Большой резонанс получил случай, когда беспилотный автомобиль в 2018
году во время испытаний насмерть сбил пешехода, переходившего дорогу
в неположенном месте. В качестве причин указывались: ошибка оператора;
несовершенство программного обеспечения; действия пешехода, которые
привели к невозможности избежать столкновения.
Данные случаи объединяет то, что искусственный интеллект не стремился
причинить вред.
В теории уголовного права одним из основных элементов состава
преступления является субъективная сторона, которая, помимо прочего, также
включает в себя критерий вины, которая может быть выражен в форме умысла и
неосторожности. Очевидно, что в описанных ситуациях AI не обладал
достаточным самосознанием и имел какой-либо умысел причинить вред тому или
иному человеку.
Это, конечно, не означает отсутствия возможности привлечения к уголовной
ответственности виновных, поскольку современный уровень развития таких
систем все еще отражает зависимость от деятельности физического лица —
единственного субъекта преступления, признаваемого российским уголовным
законодательством.
Именно поэтому на сегодняшнем этапе развития AI проблема будет решаться
весьма тривиально – к уголовной ответственности следует привлекать либо
оператора AI, либо инженеров и программистов, допустивших фатальную ошибку
при конструировании того или иного аппарата с «начинкой» искусственного
интеллекта.
А вопрос о том, когда отрасль уголовного права еще будет развиваться в
отношении привлечения к уголовной ответственности AI аппаратов остается
открытым. И хотя я не обладаю каким-либо специальными знаниями в сфере
программирования и моделирования ИИ, все же отмечу, что на мой взгляд прежде
всего следует дождаться момента, когда ИИ станет обладать собственным
интеллектом и самосознанием. К этому знаменательному дню, уже следует
подготовить необходимый законодательный базис, на основе которого станет
возможным присваивать устройствам, обладающим интеллектом статус
полноценного члена общества и, как следствие, наделять их
деликтоспособностью.

Литература:
Hallevy, Gabriel. 2013. When Robots Kill: Artificial Intelligence Under Criminal
Law. Boston: Northeastern University Press
Мосечкин, Илья Н. 2019. «Искусственный интеллект и уголовная
ответственность: проблемы становления нового вида субъекта преступления».
Вестник СанктПетербургского университета. Право 3: 461–476.
https://doi.org/10.21638/spbu14.2019.304

Вам также может понравиться