Вызовы, связанные с ИИ, рассмотрели в студенческом Клубе КонсультантПлюс

20 октября в Клубе КонсультантПлюс обсудили вопросы правосубъектности и ответственности искусственного интеллекта (ИИ).

Перед московскими студентами в формате онлайн выступила Екатерина Абросимова, к.ю.н., доцент кафедры международного частного и гражданского права им. С.Н. Лебедева, и.о. заведующего кафедрой инновационной юриспруденции и информационного права МГИМО МИД России, замдиректора Информационного центра Гаагской конференции по международному частному праву, арбитр арбитражного центра при РСПП, арбитр TIAC.

Лекция началась с обзора российских нормативных источников регулирования ИИ. Это Указ Президента РФ от 10.10.2019 N 490 (ред. от 15.02.2024) "О развитии искусственного интеллекта в Российской Федерации" (вместе с "Национальной стратегией развития искусственного интеллекта на период до 2030 года"). И Указ Президента РФ от 09.05.2017 N 203 "О Стратегии развития информационного общества в Российской Федерации на 2017 - 2030 годы". Екатерина Абросимова также перечислила законы и постановления по экспериментальным правовым режимам (ЭПР). Из них можно узнать, как работают эти режимы.

Первый вызов, по словам Екатерины Абросимовой, – это дискуссия о правосубъектности ИИ. Спикер представила базовые позиции по вопросу, является ли ИИ субъектом права.

По мнению эксперта, объявлять искусственный интеллект субъектом права в полном смысле еще рано. Существует ситуативная концепция, что ИИ может рассматриваться как субъект и как объект права в зависимости от обстоятельств. Есть позиция, что ИИ – это технический, цифровой квази-субъект (цифровой агент, например). Классифицируют ИИ как инструмент и способ, и на сегодняшний день это самое распространенное восприятие ИИ.

Лектор также затронула тему ответственности за действия, связанные с использованием ИИ. По Национальной стратегии развития искусственного интеллекта на период до 2030 года субъектом ответственности всегда является физическое или юридическое лицо. И есть разграничение ответственности разработчиков и пользователей за противоправное применение технологий ИИ.

Среди самых популярных преступлений на сегодняшний день, связанных с использованием ИИ, – мошенничество и вымогательство с помощью дипфейков. В данном контексте лектор вспомнила историю Адама Рейна, молодого человека, которого ИИ склонял к самоубийству. Как результат, сейчас во всех нейросетях вшиты ограничения на использование слов, связанных с самоубийствами, самоповреждениями и т.д.

В сферу уголовной ответственности с использованием ИИ входит также и создание вредоносных ПО и компьютерных программ. Речь о вирусах, троянах и прочих, что нарушает закон и влечет за собой достижение противоправного результата. За промпт, направленный на генерацию вредоносного ПО, пользователь будет нести ответственность.

На лекции рассмотрели и другие виды ответственности, связанные с применением ИИ: административную, дисциплинарную, гражданско-правовую. Например, студентам, применяющим ИИ и не раскрывающим эту информацию, может грозить выговор или непринятие результата научной работы или исследования.

Не нужно бороться с использованием ИИ, считает лектор. Нужно уметь проверять результат. В МГИМО учат использовать искусственный интеллект, как инструмент для облегчения работы, но не как способ обойти систему или отказ от своей работы.

Екатерина привела несколько моделей решения проблемы ответственности использования ИИ, среди них страхование, распределительная схема, модель принятия на себя риска.

В конце выступления спикер ответила на вопросы в чате. Один из них – как при развитии искусственного интеллекта не утратить естественный? Екатерина подчеркнула, что ИИ не сможет подменить самостоятельное решение задач и посоветовала следовать принципу «доверяй, но проверяй», т.е. перепроверять результаты, выданные искусственным интеллектом.

Клуб для студентов