Искусственный интеллект и права человека
Подборка наиболее важных документов по запросу Искусственный интеллект и права человека (нормативно–правовые акты, формы, статьи, консультации экспертов и многое другое).
Статьи, комментарии, ответы на вопросы
Статья: Искусственный интеллект и гражданско-правовая ответственность
(Дробышева А.В.)
("Современный юрист", 2025, N 1)Ключевые слова: искусственный интеллект, права человека, Гражданский кодекс, ответственность, источник повышенной опасности.
(Дробышева А.В.)
("Современный юрист", 2025, N 1)Ключевые слова: искусственный интеллект, права человека, Гражданский кодекс, ответственность, источник повышенной опасности.
Статья: Права человека в реалиях нейропрогресса: юридические средства компенсации нейротехнологических рисков
(Будник Р.А.)
("Журнал российского права", 2025, N 3)Ключевые слова: нейроправо, искусственный интеллект, права человека, акты международного права, мягкое право, ООН, ЮНЕСКО, цифровой дубликат, дипфейк, авторское право, исключительное право.
(Будник Р.А.)
("Журнал российского права", 2025, N 3)Ключевые слова: нейроправо, искусственный интеллект, права человека, акты международного права, мягкое право, ООН, ЮНЕСКО, цифровой дубликат, дипфейк, авторское право, исключительное право.
Нормативные акты
Указ Президента РФ от 10.10.2019 N 490
(ред. от 15.02.2024)
"О развитии искусственного интеллекта в Российской Федерации"
(вместе с "Национальной стратегией развития искусственного интеллекта на период до 2030 года")б) гуманистический подход: при развитии и регулировании технологий искусственного интеллекта человек, его права и свободы должны рассматриваться как высшая ценность;
(ред. от 15.02.2024)
"О развитии искусственного интеллекта в Российской Федерации"
(вместе с "Национальной стратегией развития искусственного интеллекта на период до 2030 года")б) гуманистический подход: при развитии и регулировании технологий искусственного интеллекта человек, его права и свободы должны рассматриваться как высшая ценность;
Статья: Цифровизация и вопросы прав человека в реалиях современного мира
(Ковлер А.И., Семилютина Н.Г.)
("Журнал российского права", 2024, N 10)Ключевые слова: информатизация, правовое регулирование, права человека в экономической деятельности, искусственный интеллект, права человека.
(Ковлер А.И., Семилютина Н.Г.)
("Журнал российского права", 2024, N 10)Ключевые слова: информатизация, правовое регулирование, права человека в экономической деятельности, искусственный интеллект, права человека.
Статья: Верховенство закона и алгоритмизация принятия решений в России, Китае, Европе: перспективы персонализации правового регулирования
(Харитонова Ю.С., Ци Сунь)
("Право и бизнес", 2023, N 2)В опубликованном в январе 2023 г. "нулевом проекте" Европейской конвенции об искусственном интеллекте, правах человека, демократии и верховенстве закона в ст. 7 предложено описание требований, касающихся уважения демократических институтов и верховенства закона: "Каждая сторона принимает все необходимые меры для сохранения целостности демократических институтов и процессов и обеспечения уважения верховенства закона и надлежащего отправления правосудия в контексте применения системы искусственного интеллекта. С этой целью компетентным национальным органом должна быть проведена тщательная оценка необходимости, соразмерности и потенциальных рисков как до, так и во время применения системы искусственного интеллекта при разработке или пересмотре законов и политики, регулирующих соответствующие роли исполнительной власти, других демократических институтов и судебной власти" <10>.
(Харитонова Ю.С., Ци Сунь)
("Право и бизнес", 2023, N 2)В опубликованном в январе 2023 г. "нулевом проекте" Европейской конвенции об искусственном интеллекте, правах человека, демократии и верховенстве закона в ст. 7 предложено описание требований, касающихся уважения демократических институтов и верховенства закона: "Каждая сторона принимает все необходимые меры для сохранения целостности демократических институтов и процессов и обеспечения уважения верховенства закона и надлежащего отправления правосудия в контексте применения системы искусственного интеллекта. С этой целью компетентным национальным органом должна быть проведена тщательная оценка необходимости, соразмерности и потенциальных рисков как до, так и во время применения системы искусственного интеллекта при разработке или пересмотре законов и политики, регулирующих соответствующие роли исполнительной власти, других демократических институтов и судебной власти" <10>.
Статья: Гуманизм как принцип российского гражданского права в условиях новых технологических вызовов
(Богданов Е.В.)
("Журнал российского права", 2022, N 9)Можно быть уверенным в том, какая информация была введена в соответствующее электронное устройство, а вот что будет на выходе, можно только предполагать с той или иной степенью вероятности. Работа электронного устройства основывается на вероятностных величинах. Тем более совершенно неизвестно, как электронное устройство (черный ящик) обрабатывает информацию и в итоге совершает какую-то операцию. Поэтому, на наш взгляд, металлические (в основном) изделия с искусственным интеллектом будут представлять для окружающих не повышенную (ст. 1079 ГК РФ), а особую опасность (особо повышенную), следовательно, ответственность соответствующих лиц будет в данном случае не безвиновная, как в силу ст. 1079 ГК РФ, а фактическая, ответственность безусловная - абсолютная ответственность <30>, т.е. за факт причинения вреда жизни или здоровью человека. Даже наличие форс-мажорных обстоятельств не может освобождать от ответственности владельцев (эксплуатантов) "думающего", но плохо "подумавшего" искусственно-интеллектуального устройства. А иначе для чего данное устройство люди наделили известным интеллектом и допустили к использованию. Так пусть и справляется с соответствующими задачами. По мнению Е.Н. Князевой, искусственное существо должно воплощать избыточность, т.е. продолжать удовлетворительным образом функционировать даже в непредсказуемых ситуациях <31>. (Правда, не следовало бы указанному автору называть искусственно-интеллектуальные устройства существами.) Следует также учесть, что к разработке, изготовлению, наладке устройства и проч. могут быть причастны (сопричастны) разработчик соответствующей системы, ее производитель, настройщик, оператор и, наконец, владелец устройства, поэтому необходимо в законе установить для всех указанных выше лиц солидарную ответственность. Установление в законодательстве абсолютной и солидарной ответственности будет стимулировать указанных выше лиц к максимальной осторожности и осмотрительности при создании и эксплуатации данных устройств. Видимо, есть необходимость внести в ГК РФ соответствующую статью - ст. 1079.1. Следует продумать вопрос и о контроле за всеми субъектами, от которых зависит разработка и эксплуатация искусственно интеллектуальных устройств, с тем чтобы максимально исключить возможность причинения вреда человеку. В этом плане спорным представляется суждение А.А. Ефремова, предлагающего вопросы контроля отдать на усмотрение разработчиков, изготовителей, эксплуатантов и др. В частности, указанный автор пишет: "В отношении применения технологий искусственного интеллекта в соответствии с Руководящими принципами СЕ по использованию искусственного интеллекта целесообразно законодательно предусмотреть обязанности для разработчиков, производителей и поставщиков услуг искусственного интеллекта постоянно оценивать возможные неблагоприятные последствия применения искусственного интеллекта для прав человека и основных свобод и, учитывая эти последствия, по предотвращению и смягчению рисков" <32>.
(Богданов Е.В.)
("Журнал российского права", 2022, N 9)Можно быть уверенным в том, какая информация была введена в соответствующее электронное устройство, а вот что будет на выходе, можно только предполагать с той или иной степенью вероятности. Работа электронного устройства основывается на вероятностных величинах. Тем более совершенно неизвестно, как электронное устройство (черный ящик) обрабатывает информацию и в итоге совершает какую-то операцию. Поэтому, на наш взгляд, металлические (в основном) изделия с искусственным интеллектом будут представлять для окружающих не повышенную (ст. 1079 ГК РФ), а особую опасность (особо повышенную), следовательно, ответственность соответствующих лиц будет в данном случае не безвиновная, как в силу ст. 1079 ГК РФ, а фактическая, ответственность безусловная - абсолютная ответственность <30>, т.е. за факт причинения вреда жизни или здоровью человека. Даже наличие форс-мажорных обстоятельств не может освобождать от ответственности владельцев (эксплуатантов) "думающего", но плохо "подумавшего" искусственно-интеллектуального устройства. А иначе для чего данное устройство люди наделили известным интеллектом и допустили к использованию. Так пусть и справляется с соответствующими задачами. По мнению Е.Н. Князевой, искусственное существо должно воплощать избыточность, т.е. продолжать удовлетворительным образом функционировать даже в непредсказуемых ситуациях <31>. (Правда, не следовало бы указанному автору называть искусственно-интеллектуальные устройства существами.) Следует также учесть, что к разработке, изготовлению, наладке устройства и проч. могут быть причастны (сопричастны) разработчик соответствующей системы, ее производитель, настройщик, оператор и, наконец, владелец устройства, поэтому необходимо в законе установить для всех указанных выше лиц солидарную ответственность. Установление в законодательстве абсолютной и солидарной ответственности будет стимулировать указанных выше лиц к максимальной осторожности и осмотрительности при создании и эксплуатации данных устройств. Видимо, есть необходимость внести в ГК РФ соответствующую статью - ст. 1079.1. Следует продумать вопрос и о контроле за всеми субъектами, от которых зависит разработка и эксплуатация искусственно интеллектуальных устройств, с тем чтобы максимально исключить возможность причинения вреда человеку. В этом плане спорным представляется суждение А.А. Ефремова, предлагающего вопросы контроля отдать на усмотрение разработчиков, изготовителей, эксплуатантов и др. В частности, указанный автор пишет: "В отношении применения технологий искусственного интеллекта в соответствии с Руководящими принципами СЕ по использованию искусственного интеллекта целесообразно законодательно предусмотреть обязанности для разработчиков, производителей и поставщиков услуг искусственного интеллекта постоянно оценивать возможные неблагоприятные последствия применения искусственного интеллекта для прав человека и основных свобод и, учитывая эти последствия, по предотвращению и смягчению рисков" <32>.
"Цифровая экономика: актуальные направления правового регулирования: научно-практическое пособие"
(под ред. И.И. Кучерова, С.А. Синицына)
("ИЗиСП", "НОРМА", 2022)В отношении применения технологий искусственного интеллекта в соответствии с Руководящими принципами СЕ по использованию искусственного интеллекта целесообразно законодательно предусмотреть обязанности для разработчиков, производителей и поставщиков услуг искусственного интеллекта постоянно оценивать возможные неблагоприятные последствия применения искусственного интеллекта для прав человека и основных свобод и, учитывая эти последствия, принимать меры по предотвращению и смягчению рисков.
(под ред. И.И. Кучерова, С.А. Синицына)
("ИЗиСП", "НОРМА", 2022)В отношении применения технологий искусственного интеллекта в соответствии с Руководящими принципами СЕ по использованию искусственного интеллекта целесообразно законодательно предусмотреть обязанности для разработчиков, производителей и поставщиков услуг искусственного интеллекта постоянно оценивать возможные неблагоприятные последствия применения искусственного интеллекта для прав человека и основных свобод и, учитывая эти последствия, принимать меры по предотвращению и смягчению рисков.
Статья: Правовая регламентация использования систем искусственного интеллекта в юриспруденции и иных сферах человеческой деятельности
(Михайлов М.А., Михайлова А.Г.)
("Российский следователь", 2025, N 7)В современном мире технологии искусственного интеллекта (ИИ) находят все большее распространение. Назрела необходимость в установлении правовой регламентации использования систем ИИ. Рассмотрены правовые акты различных стран, регулирующие использование ИИ. Авторская позиция опирается на решения многих стран о закреплении регулирования рисков применения искусственного интеллекта для прав человека, на возможные дискриминационные последствия ИИ в юриспруденции и иных сферах человеческой деятельности. Соответственно, необходимость всестороннего определения важности ответственности и соблюдения юридических процедур выдвигается на первый план. Поднимаются вопросы назревшей правовой регламентации использования систем искусственного интеллекта.
(Михайлов М.А., Михайлова А.Г.)
("Российский следователь", 2025, N 7)В современном мире технологии искусственного интеллекта (ИИ) находят все большее распространение. Назрела необходимость в установлении правовой регламентации использования систем ИИ. Рассмотрены правовые акты различных стран, регулирующие использование ИИ. Авторская позиция опирается на решения многих стран о закреплении регулирования рисков применения искусственного интеллекта для прав человека, на возможные дискриминационные последствия ИИ в юриспруденции и иных сферах человеческой деятельности. Соответственно, необходимость всестороннего определения важности ответственности и соблюдения юридических процедур выдвигается на первый план. Поднимаются вопросы назревшей правовой регламентации использования систем искусственного интеллекта.
Статья: Международно-правовые основы регулирования искусственного интеллекта и робототехники
(Бегишев И.Р.)
("Международное публичное и частное право", 2021, N 1)<4> Морхат П.М. Искусственный интеллект и права человека: теоретико-правовое исследование // Право и образование. 2018. N 3. С. 35 - 44.
(Бегишев И.Р.)
("Международное публичное и частное право", 2021, N 1)<4> Морхат П.М. Искусственный интеллект и права человека: теоретико-правовое исследование // Право и образование. 2018. N 3. С. 35 - 44.
Статья: Права человека в цифровом государственном управлении
(Талапина Э.В.)
("Журнал российского права", 2024, N 9)Перечисленные права человека - необходимый минимум прав, соблюдение которых требуется при обработке данных в государственном управлении на основе продвинутых цифровых технологий. Однако это не означает, что другие права не затрагиваются. Например, право на справедливое судебное разбирательство способно оказаться под угрозой из-за недостатка алгоритмической транспарентности, право частной собственности может страдать из-за проблем, возникающих в сфере интеллектуальной собственности в связи с искусственным интеллектом (далее - ИИ), свобода выражения мнений - из-за уязвимостей в области кибербезопасности, право на жизнь, право на эффективные средства правовой защиты связаны с проблемами ответственности за вред, причиняемый при использовании технологий (особенно ИИ), и др. <11>. Риски, связанные с системами ИИ и умными роботами, еще более усиливаются и усугубляются специфическими характеристиками многих из этих технологий, включая непрозрачность (эффект черного ящика), сложность, непредсказуемость и частично автономное поведение; все это может затруднить соблюдение существующих правовых норм. В настоящий момент именно ИИ является наиболее дискутируемой и одновременно активно развивающейся и практически применяемой технологией. Соответственно, создаваемые искусственным интеллектом угрозы правам человека необходимо обнаруживать, предвидеть и предотвращать.
(Талапина Э.В.)
("Журнал российского права", 2024, N 9)Перечисленные права человека - необходимый минимум прав, соблюдение которых требуется при обработке данных в государственном управлении на основе продвинутых цифровых технологий. Однако это не означает, что другие права не затрагиваются. Например, право на справедливое судебное разбирательство способно оказаться под угрозой из-за недостатка алгоритмической транспарентности, право частной собственности может страдать из-за проблем, возникающих в сфере интеллектуальной собственности в связи с искусственным интеллектом (далее - ИИ), свобода выражения мнений - из-за уязвимостей в области кибербезопасности, право на жизнь, право на эффективные средства правовой защиты связаны с проблемами ответственности за вред, причиняемый при использовании технологий (особенно ИИ), и др. <11>. Риски, связанные с системами ИИ и умными роботами, еще более усиливаются и усугубляются специфическими характеристиками многих из этих технологий, включая непрозрачность (эффект черного ящика), сложность, непредсказуемость и частично автономное поведение; все это может затруднить соблюдение существующих правовых норм. В настоящий момент именно ИИ является наиболее дискутируемой и одновременно активно развивающейся и практически применяемой технологией. Соответственно, создаваемые искусственным интеллектом угрозы правам человека необходимо обнаруживать, предвидеть и предотвращать.
Статья: Алгоритмы в механизме реализации конституционных прав и свобод: вызовы цифровой эпохи
(Пибаев И.А., Симонова С.В.)
("Сравнительное конституционное обозрение", 2020, N 6)Ключевые слова: алгоритмы; искусственный интеллект; права человека; этические принципы; данные; цифровые технологии.
(Пибаев И.А., Симонова С.В.)
("Сравнительное конституционное обозрение", 2020, N 6)Ключевые слова: алгоритмы; искусственный интеллект; права человека; этические принципы; данные; цифровые технологии.
Статья: Цифровая трансформация защиты персональных данных в сервисном публичном управлении
(Затулина Т.Н., Левченко И.А.)
("Государственная власть и местное самоуправление", 2021, N 11)В рекомендациях ПАСЕ "Слияние с технологиями, искусственный интеллект и права человека" <5> прямо указывается, что ответственность за деяния искусственного интеллекта лежит на человеке-создателе, владельце или операторе данного явления. Если исходить из того, что искусственный интеллект - это самообучающаяся система, в условиях децентрализации и алгоритмизации технологий программного обеспечения установить контроль над результатом человеческого труда в этой части становится затруднительным, с учетом того, что многие из них лежат в разработке коммерческих корпораций больших данных.
(Затулина Т.Н., Левченко И.А.)
("Государственная власть и местное самоуправление", 2021, N 11)В рекомендациях ПАСЕ "Слияние с технологиями, искусственный интеллект и права человека" <5> прямо указывается, что ответственность за деяния искусственного интеллекта лежит на человеке-создателе, владельце или операторе данного явления. Если исходить из того, что искусственный интеллект - это самообучающаяся система, в условиях децентрализации и алгоритмизации технологий программного обеспечения установить контроль над результатом человеческого труда в этой части становится затруднительным, с учетом того, что многие из них лежат в разработке коммерческих корпораций больших данных.
"Взаимодействие принципов адвокатской деятельности и гражданского процессуального права как фактор повышения эффективности судебной защиты: монография"
(Федина А.С.)
("Проспект", 2024)Особенно важным при использовании технологий искусственного интеллекта в правосудии представляется принцип защиты прав и свобод человека, которым адвокат должен руководствоваться в своей профессиональной деятельности (Указ Президента Российской Федерации от 10 октября 2019 года N 490).
(Федина А.С.)
("Проспект", 2024)Особенно важным при использовании технологий искусственного интеллекта в правосудии представляется принцип защиты прав и свобод человека, которым адвокат должен руководствоваться в своей профессиональной деятельности (Указ Президента Российской Федерации от 10 октября 2019 года N 490).