News / Media / ЖУРНАЛ LGP NEWS 02/2021 / Кто несет ответственность за преступления

Кто несет ответственность за преступления

искусственного интеллекта?

Кто несет ответственность за преступления

Искусственный интеллект (ИИ) широко распространен на сегодняшний день. Мы сталкиваемся с ним в операционном зале в виде робота-хирурга, на дорогах в виде автономных средств передвижения или в суде в качестве помощников судей при принятии решений. В то время как технологии искусственного интеллекта неудержимо развиваются и приобретают все большее практическое значение, законодательные органы отстают с реализацией правовых рамочных условий. 

Хотя искусственный интеллект постоянно присутствует в нашей жизни цифровой эпохи и, безусловно, может сыграть важную роль в обеспечении более экологичного будущего, в настоящее время он практически не регулируется. По факту не существует никаких законодательных норм, которые бы регулировали именно искусственный интеллект. На европейском уровне уже существуют первые попытки. Например, Комиссия ЕС предложила «Меры по продвижению высокого качества в области ИИ и правил» как основу для будущих нормативных актов и классифицировала ИИ по различным уровням риска в виде пирамиды. Таким образом, Комиссия хочет четко определить, что должно быть разрешено или запрещено с использованием ИИ. То есть, социальный скоринг, например, практикуемый в Китае, будет считаться недопустимым. Системы искусственного интеллекта, такие как «чат-боты», будут классифицироваться как ограниченный риск и, таким образом, будут разрешены при определенных условиях (согласие пользователя). С другой стороны, ИИ, используемый в критически важных инфраструктурах, таких как транспорт, или в качестве компонента безопасности продукции (роботизированная хирургия), будет относиться к категории высокого риска. 

В дополнение к запланированному нормативному акту Комиссия также созвала группу специалистов по этому вопросу. Экспертная группа высокого уровня по ИИ (HLEG) рассматривает 7 ключевых требований для этически корректного обращения с ИИ. К ним относятся надежная защита информации и управление данными, а также стремление к социальному и экологическому благополучию (ключевое слово «зеленая энергия»). Однако даже эти центральные требования до сих пор еще не превратились в юридически обязательные нормы. 

Правовая база 

Отсутствие правовых норм поднимает некоторые фундаментальные юридические вопросы: кто несет ответственность, если ИИ совершает ошибку? Производитель, импортер или, возможно, сам ИИ? Как следует оценивать ситуацию с защитой данных? Все ли данные защищены? Кроме того, поднимается волнующий вопрос о том, действительно ли ИИ может активно способствовать устойчивому и более экологичному будущему. 

Для того чтобы ответить на эти актуальные вопросы, необходимо обратиться к существующим законам. Что касается вопросов ответственности с правовой точки зрения, то в данном случае может быть рассмотрен Закон об ответственности за железнодорожный и автомобильный транспорт (EKHG) или Закон об ответственности за качество продукции (PHG). Последний, однако, применим только в том случае, если система ИИ рассматривается как продукт. Здесь, однако, мнения сильно расходятся. Если имеет место последняя оговорка, и человек погибает, получает физическую травму или иной ущерб здоровью из-за дефекта продукта, то за возмещение ущерба отвечает производитель или импортер ИИ. Однако это становится проблематичным, если компания сама производит аппаратное обеспечение для своего продукта, выпускаемого на рынок, а программное обеспечение ИИ поставляется третьей стороной. Хорошим примером может служить производитель автомобилей, закупающий искусственный интеллект для автомобиля у третьих лиц. Кто несет ответственность в случае сбоя ИИ? Поставщик искусственного интеллекта или все-таки компания, поставляющая готовый автомобиль на рынок? Кстати, в настоящее время также обсуждается вопрос о возложении ответственности на сам искусственный интеллект, наделив его собственной правосубъектностью и сделав его так называемой электронной личностью. 

Почему нет необходимости в электронной личности, по крайней мере, на сегодняшний момент, объяснить относительно легко: автономные действия ИИ в настоящее время все еще ограничены и их почти всегда можно сравнить с поведением человека. Это связано с тем, что система искусственного интеллекта должна быть запрограммирована человеком. Уровень техники (еще) не достиг того момента, когда система ИИ станет настолько самостоятельной, что ей больше не понадобится человеческий компонент. Однако эту концепцию электронной личности следует иметь в виду на будущее, – нельзя исключать, что в будущем системы ИИ станут еще более автономными. 

В противном случае ответственность за дефекты могут нести и производители компонента продукта. Чтобы проиллюстрировать это, можно снова взять в качестве примера автомобиль с программным обеспечением ИИ. Если ошибка в ИИ привела к повреждению, и ее можно четко отграничить от ошибки аппаратного обеспечения, ответственность может быть возложена на производителя ИИ. Если механическая часть, произведенная автостроительной фирмой, неисправна и это привело к ущербу, автостроительная фирма должна будет нести ответственность. Однако там, где границы взаимодействия ИИ и аппаратных средств или даже данных третьих лиц стираются, определить ответственную сторону может быть очень сложно или невозможно. В этом случае можно рассматривать только солидарную ответственность как решение при существующих средствах правовой защиты. Или (и это было бы особенно желательно) необходимо принять новые законы, которые бы четко регулировали подобные случаи с юридической точки зрения. 

Положения о защите информации 

Вопрос защиты данных также играет важную роль в контексте ИИ. Проще говоря, ИИ характеризуется сбором огромных объемов данных (Big Data). Поэтому сейчас как никогда важно соблюдать положения Общего регламента по защите данных (ОРЗД) при обработке персональных данных с помощью искусственного интеллекта. Согласно ст. 6 Общего регламента по защите данных, обработка персональных данных всегда требует законного основания, такого как согласие субъекта данных или преимущественно законный интерес ответственного лица. Вполне возможно и весьма проблематично, если ИИ будет автономно собирать «новые» данные, не подпадающие ни под одну из этих правовых основ. Функционирование ИИ также может расходиться с принципом минимизации данных, предусмотренным ст. 5c ОРЗД. Ведь для функционирования и дальнейшего развития системам искусственного интеллекта необходимы огромные объемы данных. Также стоит рассмотреть вопрос о совместимости со статьей 17 ОРЗД и предусмотренным в ней правом на удаление данных или правом на забвение. Может ли ИИ вообще удалить или забыть данные? Если бы это было возможно, существовала бы также возможность восстановления удаленных данных? Поэтому и в области права о защите данных ИИ ставит перед нами множество вопросов, на которые пока нет ответа, подкрепленного законом. 

ИИ также играет важную роль в защите климата и экологии. Действительно ли использование искусственного интеллекта оказывает положительное влияние на наш климат и на достижение климатических целей, поставленных ЕС? Ответ неоднозначен: искусственный интеллект может внести значительный вклад в защиту климата. Он уже используется, например, в сельском хозяйстве и для предотвращения незаконной вырубки лесов. Однако было бы неправильно полагать, что искусственный интеллект автоматически ведет к более эффективной защите климата. Также и здесь устойчивое развитие необходимо выдвинуть на первый план и создать соответствующие рамочные условия. Приложения ИИ требуют большого количества энергии и ресурсов и поэтому могут увеличить глобальное потребление электроэнергии. 

В заключение следует отметить, что с учетом существующей правовой базы многие вопросы остаются без ответа. Однако также очевидно, что ИИ уже опережает законодательные органы. Хотя обращение к существующим законам в определенной степени возможно, существует нехватка новых, более узких законов, которые были бы непосредственно направлены на системы ИИ и четко бы их регулировали. 


АВТОРЫ:

доктор ЮЛИЯ АНДРАШ, Адвокат и управляющий партнер в LANSKY, GANZGER + partner
(слева направо: Кларисса Вёльфер, Филипп Грюнбергер, Мари Пош)

Также и в этом году LGP взяло на летний период практикантов, которые смогли познакомиться с повседневными делами крупного юридического бюро. На этот раз среди прочих свою практику в LGP прошли Кларисса ВёльферМари Пош и Филипп Грюнбергер Эти трое студентов занимались захватывающей и многообещающей темой искусственного интеллекта и вытекающими из нее соответствующими правовыми вопросами. Ведь тема искусственного интеллекта не только имеет моральные, этические и технические аспекты, но и поднимает многочисленные юридические вопросы, особенно в области ответственности за преступления или ущерб, а также в области защиты данных. LGP с гордостью представляет статью, написанную совместными силами. 

МОИ ДОКУМЕНТЫ

Add page

В настоящее время Ваша корзина пуста.