аспирант, кафедра уголовного права и криминологии ВГУЮ РПА (Минюста) России, РФ, г. Иркутск
ОСОБЕННОСТИ ПРЕДМЕТА ДОКАЗЫВАНИЯ ПРИ СОВЕРШЕНИИ ПРЕСТУПЛЕНИЙ ПРОТИВ ОБЩЕСТВЕННОЙ БЕЗОПАСНОСТИ, СОВЕРШАЕМЫХ С ИСПОЛЬЗОВАНИЕМ СИСТЕМ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА
АННОТАЦИЯ
Среди основных задач по достижению цели научно-технического развития государства является развитие перспективных высоких технологий, в том числе, искусственного интеллекта. Вместе с тем последний злонамеренно используется и при совершении преступлений. Согласно статистическим данным МВД РФ, в 2023 году было зарегистрировано 677 тысяч преступлений, совершенных с использованием систем искусственного интеллекта и сети интернет, в то время как за аналогичный период 2022 год их было 522 тысячи. При этом более 57% регистрируемых преступлений с использованием IT-технологий относятся к категории тяжких и особо тяжких, также за последние годы отмечается всплеск регистрации преступлений, совершаемых с использованием IT-технологий и посягающих на общественную безопасность и порядок.
ABSTRACT
Among the main tasks to achieve the goal of scientific and technical development of the state is the development of promising high technologies, including artificial intelligence. At the same time, the latter is maliciously used in the commission of crimes. According to statistics from the Ministry of Internal Affairs of the Russian Federation, in 2023, 677 thousand crimes were registered using artificial intelligence systems and the Internet, while in the same period in 2022 there were 522 thousand. At the same time, more than 57% of recorded crimes using IT technologies are classified as serious and especially serious. In recent years, there has also been a surge in the registration of crimes committed using IT technologies and encroaching on public safety and order.
Ключевые слова: квалификация преступлений, доказывание, искусственный интеллект, преступление, общественная безопасность, сеть «интернет».
Keywords:qualification of crimes, proof, artificial intelligence, crime, public safety, the Internet
В современном мире искусственный интеллект крепко занял место в числе технологических инноваций и стал неотъемлемой частью жизни современного общества. Его внедрение позволило с большой скоростью обрабатывать огромные объёмы информации. При этом применение высоких технологий ставит большие проблемы перед правом в целом по всем миру. Что касается Российской Федерации, особо остро стоит проблема применения норм, регулирующих использование искусственного интеллекта в уголовном праве и процессе, так как на данный момент отсутствует гражданско-правовое определение статуса робота, отсутствует законодательное определение понятия искусственного интеллекта, на практике возникает множество проблем при квалификации преступлений, совершаемых с их использованием. Хотя в настоящее время в законодательной системе Российской Федерации отсутствует легальное определение понятия искусственного интеллекта (далее: ИИ), упоминание о последнем содержится в стратегии развития ИИ на период до 2030 года [1, с. 444].
В настоящее время широкое развитие систем ИИ и робототехники порождает риски для общественной безопасности, а также безопасности мира и человечества [3, с.204]. Еще в 2016 году Американский ученый-физик Дель Монте автор книги: «Нанооружие: растущая угроза человечеству» спрогнозировал, что к 2020 году террористы смогут получить доступ к нанооружию и будут использовать его для совершения террористических атак[6], что и происходит в действительности. В связи со сложившейся обстановкой в последние годы активно ведутся работы по созданию и использованию беспилотных летательных аппаратов (дронов). При этом они используются преступными лицами для совершения преступлений в сфере безопасности общества и государства. На данный момент остро стоит вопрос об опасности использования систем искусственного интеллекта террористами и экстремистами. С их использованием могут быть совершены такие преступления, как террористический акт (ст. 205 УК РФ), заведомо ложное сообщение об акте терроризма (ст. 207 УК РФ), вандализм (ст. 214 УК РФ), приведение в негодность объектов жизнеобеспечения (ст. 215.2 УК РФ) путем их разрушения, повреждения или приведение иным способом в негодное для эксплуатации состояние с помощью роботов и другие преступления, предусмотренные УК РФ [5]. Опасность использования таких роботов обусловлена, во-первых, их способностью самостоятельно выбирать и атаковать цели без вмешательства человека; во-вторых, несоблюдением норм международного гуманитарного права и игнорированием ответственности за незаконные деяния, совершаемые с использованием этого оружия; в-третьих, возможным сбоем в работе программного обеспечения или его взломом; в-четвертых, риском завладения технологиями (оружием) террористическими организациями.
В практической деятельности расследование подобных преступлений вызывает множество затруднений, которые связаны с большим объемом проводимых следственных действий, сложностью проводимых судебных экспертиз, а также обусловленными особенностями процесса доказывания. При расследовании подобных преступлений всегда необходимо устанавливать обстоятельства, подлежащие доказыванию в соответствии со статьей 73 УПК РФ[4]. Трудности при расследовании таких преступлений возникают в определении способа совершения такого преступления. По своей сути использование ИИ в преступных целях может рассматриваться как способ его совершения, но какое-либо законодательное закрепление этому отсутствует. Среди ученых и практикующих юристов также на данный счет нет единого мнения, одни считают, что искусственный интеллект в ближайшем будущем можно будет рассматривать как самостоятельный субъект преступления, другие считают, что на данный момент его стоит рассматривать как способ совершения преступления. Изучение вопроса о правосубъектности ИИ в Российском законодательстве изучается последние несколько лет. В частности П.М. Морхарт в работе изучал данный вопрос и предложил несколько вариантов квалификации подобных деяний с учетом характеристик самого ИИ. [2, с.420].
С учетом складывающейся практической деятельности при расследовании подобных преступлений на территории России, полагаю, что законодательство должно оперативно реагировать на данные изменения, учитывать активное использование ИИ в преступных целях, и включение квалифицирующегося признака с помощью «искусственного интеллекта» уже необходимо. Полагаю необходимым отнесение вышеупомянутого квалифицирующего признака в качестве отягчающего наказание, в первую очередь, применимо к преступлениям против общественной безопасности и общественного порядка. При этом конкретизации будет требовать статья 73 УПК РФ, в которой при установлении события преступления необходимо будет в первую очередь рассматривать ИИ в качестве способа совершения преступления. Учитывая, что преступления против общественной безопасности и общественного порядка совершаются умышленно, то при установлении «виновности», предусмотренной п.2 ч.1 ст. 73 УПК РФ затруднений не возникнет. Развитие робототехники и ИИ требует адекватного и своевременного правового реагирования с учетом прогнозирования всех рисков. Возникает необходимость в разработке гражданско-правовых норм, а также внесение изменений в уголовное законодательство.
Список литературы:
- Малышкин А.В. Интегрирование искусственного интеллекта в общественную жизнь: некоторые этические и правовые проблемы // Вестник Санкт-Петербургского университета. Серия «Право». – 2019. – Т. 10, № 3. – С. 444–460.
- Морхат П.М. Правосубъектность искусственного интеллекта в сфере права интеллектуальной собственности: гражданско-правовые проблемы: диссертация ... доктора юридических наук: 12.00.03 / Морхат Петр Мечиславович; [Место защиты: Рос.гос. акад. интеллектуал. собственности]. М., 2018. 420 с
- "Уголовный кодекс Российской Федерации" от 13.06.1996 N 63-ФЗ (ред. от 12.06.2024) / URL: https://www.consultant.ru/document/cons_doc_LAW_10699/ (дата обращения: 10.07.2024).
- "Уголовно-процессуальный кодекс Российской Федерации" от 18.12.2001 N 174-ФЗ (ред. от 29.05.2024)/ URL: https://www.consultant.ru/document/cons_doc_LAW_34481/ (дата обращения: 10.07.2024).
- Юридическая концепция роботизации / отв. ред. Ю. А. Тихомиров, С. Б. Нанба. М., 2019. С. 204.
- Fast Sal Ttimes. Технологии. Экономика. Бизнес. Развитие / URL: https://fastsalttimes.com/sections/technology/1122.html (дата обращения: 10.07.2024).