ПРОТИВОПРАВНОЕ ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: УГОЛОВНО-ПРАВОВАЯ ОЦЕНКА

UNLAWFUL USE OF ARTIFICIAL INTELLIGENCE: CRIMINAL LAW ASSESSMENT
Корбут Н.В.
Цитировать:
Корбут Н.В. ПРОТИВОПРАВНОЕ ИСПОЛЬЗОВАНИЕ ИСКУССТВЕННОГО ИНТЕЛЛЕКТА: УГОЛОВНО-ПРАВОВАЯ ОЦЕНКА // Universum: экономика и юриспруденция : электрон. научн. журн. 2025. 1(135). URL: https://7universum.com/ru/economy/archive/item/21488 (дата обращения: 10.01.2026).
Прочитать статью:
DOI - 10.32743/UniLaw.2026.135.1.21488

 

АННОТАЦИЯ

Современные технологии искусственного интеллекта (далее - ИИ) радикально меняют социальные отношения, включая сферу преступности. Противоправное использование ИИ проявляется в применении алгоритмов для совершения общественно опасных деяний, что создает вызовы для уголовного права Российской Федерации (далее -  РФ). Актуальность темы обусловлена быстрым развитием нейронных сетей, способных генерировать дипфейки, автоматизировать мошенничество и проводить кибератаки, при отсутствии специализированных норм в Уголовном кодексе РФ (далее - УК РФ). Цель статьи – классифицировать виды преступлений с использованием ИИ и провести их уголовно-правовую оценку. Задачи включают анализ теоретических основ, обзор составов преступлений, оценку объективной и субъективной сторон, а также предложения по совершенствованию законодательства. Методология опирается на сравнительно-правовой анализ, доктринальные подходы и судебную практику. Исследование позволит выявить пробелы в правовом регулировании и обосновать меры противодействия.

ABSTRACT

Modern artificial intelligence (AI) technologies are radically changing social relations, including the field of crime. The unlawful use of AI manifests itself in the use of algorithms to commit socially dangerous acts, which poses challenges to the criminal law of the Russian Federation (hereinafter - RF). The relevance of this topic is due to the rapid development of neural networks capable of generating deepfakes, automating fraud, and conducting cyberattacks, despite the absence of specialized provisions in the Criminal Code of the Russian Federation (hereinafter - CCRF). The purpose of this article is to classify the types of crimes using AI and conduct a criminal legal assessment of them. The objectives include an analysis of theoretical foundations, a review of the elements of crimes, an assessment of the objective and subjective aspects, and proposals for improving legislation. The methodology is based on comparative legal analysis, doctrinal approaches, and judicial practice. The study will identify gaps in legal regulation and substantiate countermeasures.

 

Ключевые слова: преступление; искусственный интеллект; противоправность; киберпреступления; наказание; состав преступления.

Keywords: crime; artificial intelligence; illegality; cybercrime; punishment; elements of the crime.

 

Искусственный интеллект представляет собой систему, имитирующую когнитивные функции человека, включая обучение, анализ данных и принятие решений на основе алгоритмов машинного обучения. В уголовном праве ИИ выступает не субъектом, а орудием или средством совершения преступления, поскольку лишен воли и умысла. Доктрина отличает “слабый” ИИ (специализированные алгоритмы) от “сильного” (самообучающиеся системы), подчеркивая риск автономных действий, но исключая их правосубъектность.

Это порождает множество правовых вопросов, особенно в сфере уголовной ответственности за действия, совершаемые автономными системами. В доктрине имеется несколько подходов к определению ответственности за действия, совершенные системой ИИ. Один из таких подходов заключается в том, что оператор систем, то есть лицо, осуществляющее их эксплуатацию, контроль или обслуживание, оказывается в фокусе дискуссий о том, кто должен нести ответственность в случае причинения вреда [1].

В ходе изучения было отмечено, что автономные системы ИИ способны принимать решения и действовать без непосредственного вмешательства человека, что ставит под вопрос применимость классических правовых конструкций. [2, с.233] Например, в случае ДТП с участием беспилотного автомобиля или ошибочного медицинского диагноза, поставленного системой ИИ, возникает проблема установления виновного лица: является ли им собственник технологии, разработчик, пользователь или же сама система [3, с. 63].

Эволюция норм УК РФ отражает цифровизацию: статьи 272–274 регулируют компьютерные преступления, ст. 159 – мошенничество, ст. 238 – ненадлежащие услуги. Однако эти нормы не учитывают специфику ИИ, такую как генеративные модели (ChatGPT, Midjourney), усиливающие общественную опасность. Теоретическая база требует введения конструктивных признаков, дополняющих “использование информационных технологий” упоминанием ИИ. В российском законодательстве отсутствуют нормы, регулирующие статус операторов ИИ, однако, общие положения уголовного закона могут быть применены к их действиям. Например, статья 274 Уголовного кодекса РФ (далее - УК РФ) предусматривает ответственность за нарушение правил эксплуатации средств хранения, обработки или передачи компьютерной информации, если это повлекло причинение существенного вреда. Указанное означает, что оператор может быть привлечен к ответственности, если будет доказано, что вред возник вследствие несоблюдения им установленных регламентов, а не из-за программной ошибки [4; 3].

Понятие противоправности ИИ определяется нарушением охраняемых благ: имущества, информационной безопасности, жизни и здоровья. Объект преступления – общественные отношения в сфере высоких технологий, субъект – физическое лицо (пользователь, разработчик), осознающее алгоритмическую природу действий.

Можно отметить следующие виды преступлений с использованием ИИ.

Классификация преступлений строится по объекту посягательства и способу реализации ИИ.

Первая группа – экономические преступления.

К ним относятся: мошенничество (ст. 159 УК РФ): ИИ генерирует дипфейки видео/голоса для обмана жертв, имитируя родственников или чиновников. Например, аудиоклоны голоса для выманивания денег, квалифицируемые как особо крупный размер при ущербе свыше 1 млн руб; Кража и грабеж (ст. 158, 161 УК РФ): например: автоматизированные боты взламывают счета клиентов банковских организаций.

Вторая группа – киберпреступления. К ним относятся: неправомерный доступ (ст. 272 УК РФ): например, ИИ проводит атаки или генерирует вредоносный код, также к данной группе относятся такие преступления, как создание вредоносных программ (ст. 273 УК РФ), например, нейросети пишут вирусы. Нарушение работы систем (ст. 274 УК РФ).

Третья группа – преступления против личности и общества.

К ним относятся такие преступления, как причинение вреда жизни/здоровью (ст. 109, 118 УК РФ). Например, автономный транспорт на ИИ вызывает аварии по алгоритмической ошибке; ответственность на разработчике/владельце; Оказание услуг, не отвечающих требованиям (ст. 238 УК РФ), например, некачественные ИИ-диагнозы в медицине или кредитный скоринг, дискриминирующий группы.

Четвертая группа – новые угрозы: дезинформация (фейковые новости от ИИ), подделка документов, террористическая пропаганда. Эти деяния усиливают квалификацию как группа лиц или с использованием служебного положения.

Объективная сторона характеризуется действием (ввод данных в ИИ, запуск алгоритма) и последствиями (ущерб). Каузальная связь усложнена “черным ящиком” ИИ: алгоритмы непрозрачны, требуют тщательного анализа. Квалифицирующие признаки: крупный ущерб, трансграничный характер (ИИ-серверы).

Субъективная сторона – прямой умысел пользователя, предвидящего риски ИИ. Разработчики несут ответственность за небрежность (ст. 293 УК РФ), если алгоритм предсказуемо опасен. ИИ не субъект, отсутствует вина, но усиливает отягчающие обстоятельства (ч. 2–4 ст. 63 УК РФ). Важным аспектом является установление причинно-следственной связи между действиями оператора и наступившими последствиями. Например, если оператор не обеспечил своевременное обновление программного обеспечения или проигнорировал признаки сбоя в работе системы, его бездействие может быть расценено как преступная халатность по статье 293 УК РФ [5, с. 28].

Рассматривая правоприменительную практику, следует отметить, что большинство преступлений, совершаемых с использованием ИИ, квалифицируется по ст. 159 УК РФ.

Противоправное использование ИИ порождает новые виды преступлений, требующие адаптации уголовного права: от мошенничества до кибератак. Уголовно-правовая оценка фокусируется на человеке как субъекте, с учетом алгоритмических рисков. Совершенствование включает новые составы и экспертизу, обеспечивая баланс инноваций и безопасности. Перспективы – гармонизация норм с глобальными стандартами для минимизации угроз.

 

Список литературы:

  1.  Ответственность искусственного интеллекта в правовом поле // URL: https://dgtlaw.ru/analytic/otvetstvennost-iskusstvennogo-intellekta-v-pravovom-pole  (дата обращения: 01.12.2025).
  2. Цирхова К. В. ПРОБЛЕМА ИСКУССТВЕННОГО ИНТЕЛЛЕКТА КАК СУБЪЕКТА УГОЛОВНОЙ ОТВЕТСТВЕННОСТИ // Научный Лидер. 2025. №32 (233). URL: https://scilead.ru/article/9829-problema-iskusstvennogo-intellekta-kak-subekt  (дата обращения: 01.12.2025).
  3. Папышева Елена Сергеевна, Искусственный интеллект и уголовная ответственность: проблемы привлечения (сравнительно-правовой анализ), International Criminal Law and International Justice № 03/2023.
  4. Criminal Liability of Artificial Intelligence. Charles University in Prague Faculty of Law Research Paper No. 2023/III/3.
  5. Евсеев А. П. (2025). «Прекрасное далеко»? Искусственный интеллект и международные преступления. Журнал ВШЭ по международному праву (HSE University Journal of International Law), 3(1), 4–28.
  6. Уголовный кодекс Российской Федерации [Электронный ресурс] : федер. закон от 13.06.1996 Nº 63-Ф3 ред. от 24.02.2021. // Режим доступа. – URL: https://www.consultant.ru/document/cons_doc_LAW_10699/ (дата обращения: 02.12.2025 г.)
Информация об авторах

следователь, СУ МУ МВД России «Красноярское», капитан юстиции, РФ, г. Красноярск

Investigator, Investigative Directorate of the Ministry of Internal Affairs of Russia "Krasnoyarsk", Captain of Justice, Russia, Krasnoyarsk

Журнал зарегистрирован Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор), регистрационный номер ЭЛ №ФС77-54432 от 17.06.2013
Учредитель журнала - ООО «МЦНО»
Главный редактор - Гайфуллина Марина Михайловна.
Top