ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И УГОЛОВНОЕ ПРАВО В УЗБЕКИСТАНЕ И КАЗАХСТАНЕ

ARTIFICIAL INTELLIGENCE AND CRIMINAL LAW IN UZBEKISTAN AND KAZAKHSTAN
Цитировать:
Фазилов Ф.М., Аманжолова Б.А. ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ И УГОЛОВНОЕ ПРАВО В УЗБЕКИСТАНЕ И КАЗАХСТАНЕ // Universum: экономика и юриспруденция : электрон. научн. журн. 2025. 10(132). URL: https://7universum.com/ru/economy/archive/item/20846 (дата обращения: 11.01.2026).
Прочитать статью:

 

АННОТАЦИЯ

Статья посвящена анализу проблематики уголовно-правовой ответственности за преступления, совершаемые с использованием технологий искусственного интеллекта (ИИ), а также вопросам правового регулирования ИИ в Республике Узбекистан и Республике Казахстан. На основе сравнительно-правового метода исследуются положения национальных уголовных кодексов, законы и законопроекты об искусственном интеллекте, а также меры административного и уголовного характера, применяемые в отношении неправомерного использования ИИ. Рассматриваются актуальные вызовы: квалификация деяний, совершённых с применением ИИ, пробелы в определении субъекта и вины, риски, связанные с дипфейками, обработкой персональных данных и автономными алгоритмами. Особое внимание уделено новейшим инициативам двух стран: законопроекту Узбекистана «об упорядочении отношений, возникающих в связи с применением искусственного интеллекта» и принятому Закону Казахстана «Об искусственном интеллекте». Сделан вывод о необходимости дальнейшей адаптации уголовного законодательства с учётом международных стандартов и принципов прав человека, чтобы обеспечить баланс между инновациями и безопасностью.

ABSTRACT

The article examines the issues of criminal liability for crimes committed using artificial intelligence (AI) technologies and the legal regulation of AI in the Republic of Uzbekistan and the Republic of Kazakhstan. Using a comparative legal method, the study analyzes national criminal codes, AI-related laws and draft laws, as well as administrative and criminal measures addressing the unlawful use of AI. The article highlights pressing challenges such as the qualification of acts committed with AI, gaps in defining criminal subjects and culpability, risks associated with deepfakes, personal data processing, and autonomous algorithms. Special attention is given to the latest initiatives in both countries: Uzbekistan’s draft law “On regulating relations arising from the use of artificial intelligence” and Kazakhstan’s adopted Law “On Artificial Intelligence.” The conclusion emphasizes the need for further adaptation of criminal legislation in line with international standards and human rights principles to ensure a balance between innovation and security.

 

Ключевые слова: искусственный интеллект, уголовное право, Узбекистан, Казахстан, киберпреступность, дипфейк, уголовная ответственность, правовое регулирование.

Keywords: artificial intelligence, criminal law, Uzbekistan, Kazakhstan, cybercrime, deepfake, criminal liability, legal regulation.

 

Введение

Интенсивное развитие технологий искусственного интеллекта (ИИ) создает новые вызовы для уголовного права и правосудия во всем мире. Системы ИИ способны действовать автономно и принимать решения без непосредственного вмешательства человека, что ставит под вопрос традиционные концепции вины (mensrea) и деяния (actusreus) в уголовном праве. Например, современные исследования отмечают, что ИИ может усложнять определение субъекта преступления и ответственности за вред, причиненный с его помощью [1].

В Республики Узбекистан и Казахстан, как и в других странах, перед законодателями стоит задача адаптировать уголовное законодательство к цифровой эпохе. В последние годы в этих государствах принят ряд нормативных актов и инициатив, призванных урегулировать вопросы использования ИИ и пресечь преступления, совершаемые с его применением [2]. Данная статья рассматривает, каким образом уголовное право Узбекистана и Казахстана реагирует на вызовы, связанные с искусственным интеллектом, в том числе вопросы уголовной ответственности за преступления с использованием ИИ и необходимость обновления правовых норм.

Методы

Исследование основано на сравнительно-правовом анализе законодательства Республики Узбекистан и Республики Казахстан, регулирующего сферу искусственного интеллекта и информационных технологий, а также на обзоре правоприменительной практики и научных публикаций. В качестве источников проанализированы уголовные кодексы обеих стран, принятые законы и законопроекты об искусственном интеллекте, подзаконные акты, а также официальные статистические и нормативные данные. Проведен анализ международных норм и региональных инициатив (например, документов ООН, СНГ, Совета Европы) в части, касающейся ИИ и уголовной юстиции, с целью соотнести национальные подходы с глобальными тенденциями, также учтены мнения специалистов уголовного права и информационной безопасности, содержащиеся в научной литературе и экспертных комментариях. Такой комплексный подход позволяет выявить текущий уровень развития правового регулирования ИИ в сфере уголовного права Узбекистана и Казахстана, существующие пробелы и предлагаемые пути совершенствования законодательства.

Результаты

Уголовно-правовое регулирование ИИ в Республике Узбекистан

В Узбекистане за последние годы сформирована нормативная база для противодействия киберпреступности, которая закладывает основу и для борьбы с преступлениями, совершаемыми с использованием ИИ. Еще в 2007 году Уголовный кодекс Республики Узбекистан был дополнен новой главой XXI «Преступления в сфере информационных технологий», что значительно укрепило уголовно-правовые механизмы противодействия преступлениям в сфере ИКТ [3]. В эту главу вошли составы, предусматривающие ответственность за неправомерный доступ к компьютерной информации, создание и распространение вредоносных программ, нарушение правил информатизации и другие деяния, связанные с использованием цифровых технологий. Например, статья 174 УК РУз («Нарушение правил информатизации») устанавливает ответственность за деяния, связанные с несоблюдением требований к защите компьютерных систем и информации. Наряду с обновлением УК РУз, были приняты специальные законы, такие как Закон «Об информатизации» и Закон «О кибербезопасности», а также разрабатываются новые акты, непосредственно посвященные ИИ.

Одной из недавних инициатив является законопроект об искусственном интеллекте, внесенный в Олий Мажлис Узбекистана. В апреле 2025 года Законодательная палата приняла в первом чтении закон «об упорядочении отношений, возникающих в связи с применением искусственного интеллекта». Этот законопроект вводит в национальное законодательство определение понятия «искусственный интеллект», устанавливает основные направления государственной политики в сфере ИИ и задачи уполномоченных органов. В нем предусмотрено требование маркировать информационные продукты, созданные с использованием ИИ, перед их размещением в СМИ или интернете. Законопроект также содержит положения, направленные на защиту персональных данных: запрещается незаконная обработка и распространение персональных данных с помощью ИИ, и за такие действия устанавливается ответственность. В частности, предлагается дополнить Кодекс об административной ответственности (KoAO) новой статьей 462, согласно которой лица, незаконно обрабатывающие и распространяющие персональные данные с использованием ИИ, могут быть подвергнуты конфискации используемых устройств, административному аресту до 15 суток или штрафу от 50 до 100 базовых расчетных величин.

Следует подчеркнуть, что пока указанный законопроект сфокусирован преимущественно на превентивных мерах и административной ответственности. Прямых изменений в Уголовный кодекс относительно ИИ он не вносит, кроме установления общих требований не нарушать права человека при использовании ИИ. Узбекистанский законодатель делает акцент на том, что при совершении правонарушений с помощью ИИ (например, клеветы или оскорбления с использованием сгенерированного контента) виновные будут привлекаться к ответственности по уже имеющимся статьям уголовного закона – меняется лишь способ совершения деяния. Таким образом, на данном этапе Узбекистан вводит ИИ в правовое поле и устанавливает базовые правила обращения с этой технологией, не создавая пока отдельных составов преступлений, связанных исключительно с ИИ. Вместе с тем, предпринимаемые шаги (включая обязанность маркировки ИИ-контента и запрет неправомерной обработки данных) являются важным сигналом о готовности государства реагировать на новые виды цифровых угроз.

Правоприменительная практика в сфере киберпреступности в Узбекистане уже показывает устойчивый рост числа преступлений, совершаемых с использованием информационно-коммуникационных технологий. По данным правоохранительных органов, ежегодно регистрируются сотни случаев мошенничества и хищений денежных средств, совершенных через неправомерный доступ к информационным ресурсам, банковским картам и другим цифровым инструментам. Для противодействия этим угрозам кроме уголовно-правовых норм задействованы институциональные меры: создан специализированный департамент кибербезопасности, МВД Узбекистана ежемесячно публикует перечни банков и платежных систем, где выявлены киберинциденты (что стимулирует финансовые организации повышать защиту), Центральный банк внедрил систему мониторинга транзакций для выявления мошеннических схем. Все это дополняет уголовное законодательство превентивными механизмами. В совокупности принятые меры направлены на то, чтобы развитие цифровых технологий, включая ИИ, происходило под надлежащим правовым контролем и с гарантированной защитой прав и свобод граждан.

Уголовно-правовое регулирование ИИ в Республике Казахстан

Республика Казахстан также активно модернизирует свое законодательство в ответ на цифровые вызовы, стремясь обеспечить баланс между развитием ИИ-технологий и защитой общества от новых форм преступности. Еще Уголовный кодекс Казахстана 2014 года включил отдельную главу об уголовных правонарушениях в сфере информатизации, куда вошли статьи о неправомерном доступе к информационным системам, создании и распространении вредоносных программ и другие компьютерные преступления[4]. Например, статья 205 УК РК устанавливает наказание за умышленный неправомерный доступ к информации или информационной системе, а статья 210 – за создание и распространение вредоносных программ для ЭВМ. Эта правовая база позволяет преследовать лиц, использующих цифровые технологии (включая элементы ИИ) для совершения традиционных преступлений – таких как кражи, мошенничество, несанкционированное вмешательство в системы и т.д. В то же время, до недавнего времени в Казахстане отсутствовало системное регулирование самого применения искусственного интеллекта в правовой сфере.

Ситуация изменилась в 2023–2025 гг., когда Казахстан приступил к формированию комплексной нормативной основы для развития ИИ. В мае 2025 года Мажилис (нижняя палата Парламента) одобрил в первом чтении специальный Закон «Об искусственном интеллекте», содержащий 7 глав и 28 статей. Цель этого закона – создать единую правовую основу для работы с ИИ, обеспечивая прозрачность, безопасность и определенность в данной сфере. Закон устанавливает принципы использования ИИ (законность, справедливость, прозрачность, ответственность, приоритет прав человека и др.), а также закрепляет права и обязанности участников отношений, связанных с ИИ – разработчиков (владельцев систем ИИ), пользователей и собственников данных. В частности, разработчики обязаны управлять рисками своих ИИ-систем, обеспечивать их безопасность и надежность, документировать работу систем ИИ в зависимости от степени их влияния на права граждан. Пользователи, в свою очередь, имеют право на информацию о принципах работы ИИ и защиту своих данных, но обязаны соблюдать правила безопасного использования технологий [5].

Важно, что казахстанский закон не ограничивается декларацией принципов, но и вводит конкретные запреты и ограничения в сфере ИИ. На территории Республики Казахстан теперь запрещается создание и выпуск в обращение полностью автономных систем ИИ – то есть таких, которые принимают решения без заданных параметров и не поддаются контролю со стороны человека. Фактически, Казахстан законодательно отказался от признания «электронной личности» ИИ, требуя, чтобы за функционированием алгоритмов всегда сохранялся человеческий надзор. Кроме того, под запретом оказались ИИ-системы, обладающие опасными функциональными возможностями, например: технологии, манипулирующие поведением людей помимо их сознательного выбора; системы, эксплуатирующие уязвимость людей по признаку возраста, состояния здоровья или социального положения; алгоритмы для так называемого социального рейтингования граждан (оценки поведения или характеристик личности для дискриминации); нецелевое сборище биометрических данных (например, массовое скачивание изображений лиц из интернета для распознавания); определение эмоций граждан без их согласия; и другие аналогичные функции высокой степени риска. Фактически этот перечень запрещенных технологий отражает подход, близкий к проекту Регламента ЕС об ИИ, где выделены неприемлемые (“unacceptablerisk”) практики ИИ, недопустимые к использованию, также запрещено создавать и распространять результаты деятельности систем ИИ, если такие результаты запрещены законодательством. Данное положение направлено, в том числе, на борьбу с противоправным контентом, сгенерированным ИИ, например, на пресечение распространения так называемых дипфейков (поддельных медиа, созданных нейросетями) и иной запрещенной информации. В самом тексте закона прямо указано, что принимаются меры против дипфейков и иных манипуляций с использованием ИИ. Попутно был принят пакет поправок в смежные законодательные акты – законы о защите прав потребителей, о персональных данных, о средствах массовой информации – а также в Кодекс об административных правонарушениях. В частности, ужесточены требования по информированию потребителей о продуктах, содержащих ИИ (обязанность предупреждать о рисках при продаже таких товаров). В закон о персональных данных введен прямой запрет на автоматизированную обработку данных, затрагивающую права граждан, без их согласия, и оговорены условия применения биометрических систем наблюдения только в целях безопасности и с разрешения закона. Эти изменения формируют превентивный контроль, чтобы ИИ не использовался во вред правам человека и общественной безопасности.

Что касается непосредственно уголовно-правовых мер, на данный момент Казахстан не ввел отдельных составов преступлений, связанных исключительно с ИИ. Однако уже действующие статьи УК РК позволяют привлекать к ответственности лиц, использующих ИИ как инструмент преступления. Например, применение нейросети для осуществления мошенничества или хищения охватывается составами мошенничества (ст. 190 УК РК) или кражи с использованием компьютерных технологий, а распространение порочащих сведений через дипфейки может квалифицироваться как клевета или оскорбление (ст. 130, 131 УК РК) с использованием средств телекоммуникаций в качестве отягчающего фактора. Дополнительно, поправками 2025 года были введены нормы в Кодекс об административных правонарушениях, устанавливающие ответственность за некоторые деяния, связанные с ИИ: например, нарушение требований по маркировке ИИ-контента или незаконный сбор биометрических данных могут влечь административные штрафы. В перспективе эксперты обсуждают необходимость коррекции и самого УК РК – в частности, уточнения понятий соучастия и вины, если преступление совершено автономным алгоритмом, а также введения ответственности за создание заведомо преступных ИИ-систем (например, программ для взлома, автоматизированных комплексов для массовых кибератак и др.). Пока же основной упор сделан на профилактику и регулирование оборота ИИ.

Наконец, следует отметить и практические шаги органов уголовной юстиции Казахстана по использованию потенциала ИИ для борьбы с преступностью. Например, Генеральная прокуратура РК разрабатывает платформу общественной безопасности на основе ИИ, которая позволит прогнозировать и предотвращать правонарушения до их совершения. Система анализирует массивы правовой статистики и выявляет риски в сфере общественной безопасности, что фактически является внедрением механизмов predictivepolicing (прогнозирования преступлений). Такие проекты требуют тщательного контроля за соблюдением прав граждан (чтобы алгоритмы не приводили к необоснованным подозрениям или предвзятости), но демонстрируют стремление государства использовать ИИ не только как объект регулирования, но и как инструмент повышения эффективности уголовного преследования. В Узбекистане также предпринимаются шаги к внедрению ИИ в работу правоохранительных органов – например, сообщалось о планах тестирования системы распознавания лиц UzFace для нужд органов внутренних дел. Таким образом, обе страны находятся в поиске баланса между использованием преимуществ ИИ в уголовной юстиции и минимизацией новых рисков, которые эти технологии привносят.

Обсуждение

Анализ показывает, что ни в Узбекистане, ни в Казахстане на данный момент не существует самостоятельной уголовной ответственности именно для «искусственного интеллекта» или робототехнических систем – субъектом преступления по-прежнему может быть только физическое вменяемое лицо (либо юридическое лицо в порядке, предусмотренном законом). Иными словами, ИИ не признается носителем уголовно-правовой ответственности. Если с помощью алгоритма совершается противоправное деяние, ответственность несет человек, задействовавший эту технологию в преступных целях – разработчик, оператор или пользователь системы, в зависимости от роли и умысла. Данный подход соответствует фундаментальному принципу уголовного права: вина и сознательное волевое действие являются необходимыми условиями уголовной ответственности. Автономные действия машины, не контролируемые человеком, ставят сложный вопрос: кто должен нести наказание за вред, причиненный ИИ. В классических рамках действующего права полностью автономная система выпадает из поля субъекта преступления, ведь у нее нет сознания, воли и способности осознавать фактический характер своих действий. В связи с этим законодатели идут по пути опосредованного возложения вины: ответственность может наступать за небрежность разработчика (например, если из-за программной ошибки или халатности ИИ причинил ущерб, это может квалифицироваться как преступление по неосторожности), либо за умышленное создание опасного ИИ (что может попасть под статьи о создании средств совершения преступления, подготовке к преступлению и т.п.). Пока что специальных норм на этот счет в Узбекистане и Казахстане не принято, однако в теории обсуждается возможность введения новых составов, таких как «создание ИИ с преступными целями» или квалифицирующие признаки использования ИИ при совершении отдельных преступлений.

Правовые пробелы и вызовы. Несмотря на предпринимаемые усилия, остаются пробелы в законодательстве и вопросы, которые еще предстоит решить. Один из ключевых вызовов – отсутствие устоявшейся терминологии и правового статуса для ИИ. Новые законы Узбекистана и Казахстана вводят легальные определения искусственного интеллекта и связанных понятий, но правовая природа ИИ-систем остается дискуссионной. Является ли сложный алгоритм просто «продуктом/товаром» (как software) или нуждается в особом статусе. Можно ли рассматривать автономный ИИ как объект повышенной опасности, аналогично источнику повышенной опасности в гражданском праве, с объективной ответственностью владельца за причиненный вред. Эти вопросы пока не отражены напрямую в уголовных нормах. Кроме того, концепция вины требует осмысления: уголовное право опирается на виновное поведение человека, но, когда вред причинен вследствие решения нейросети, принятого на основе самообучения, трудно однозначно квалифицировать деяние как умышленное или неосторожное со стороны оператора. Судебным органам, вероятно, придется прибегать к экспертному анализу, чтобы установить, мог ли разработчик/пользователь предвидеть преступные последствия работы ИИ. В этой связи необходимы методики технической экспертизы ИИ-систем в уголовных делах – еще одна сфера, где пробел: пока нет стандартизованных процедур аудита алгоритмов для судов.

Научные подходы и международные нормы. Правовая наука Центральной Азии активно включилась в обсуждение регламентации ИИ. Публикации исследователей подчеркивают необходимость пересмотра традиционных категорий уголовного права. Например, зарубежные авторы указывают, что ИИ ставит под сомнение классическое понимание субъекта преступления и требует «нового подхода к уголовному праву». Отмечается, что автономные решения ИИ размывают грань между прямым умыслом и неосторожностью, а также затрудняют применение доктрины casus (случая), когда вред причинен без чьей-либо вины. Кроме того, использование ИИ в судебном процессе вызывает опасения относительно соблюдения принципов справедливости: например, алгоритмические системы прогнозирования рецидива, применяемые для определения меры пресечения или наказания, могут содержать скрытые предубеждения. Исследование ProPublica (США) выявило расовую необъективность в одной из таких систем: она завышала риск рецидива для темнокожих обвиняемых и занижала для белых [6]. Данный пример получил широкий резонанс и упоминается экспертами ООН и Совета Европы при обосновании необходимости контроля над ИИ в судебной сфере. Для стран СНГ, включая Узбекистан и Казахстан, эти выводы тоже актуальны, поскольку они начинают внедрять ИИ в уголовное судопроизводство (например, для аналитики правонарушений). Нормотворчество должно обеспечивать прозрачность и проверяемость алгоритмов, применяемых в правосудии, чтобы исключить нарушение прав на справедливый суд.

Международные организации выработали ряд рекомендаций и стандартов на стыке ИИ и уголовной юстиции. В 2018 году Совет Европы принял Этическую хартию по применению ИИ в судебных системах, провозгласив набор принципов для алгоритмов, используемых судами (уважение прав человека, недопустимость дискриминации, контроль человеком и др.). Эти принципы разделяются и ООН: Комиссия ООН по преступности (UNODC) подчеркивает, что технологии должны внедряться только при наличии механизмов их подотчетности и контроля unodc.org. На глобальном уровне обсуждается возможность разработки универсальных норм. В 2023 г. Совет Европы приступил к подготовке рамочной Конвенции об искусственном интеллекте, правах человека, демократии и верховенстве права, которая охватит жизненный цикл систем ИИ и, вероятно, затронет вопросы ответственности за их последствия. Хотя эта конвенция еще в проекте, Казахстан и Узбекистан смогут в будущем опираться на ее положения при совершенствовании своего законодательства. Что касается регулирования преступлений, совершаемых с помощью ИИ, то здесь ключевым международным документом остается Будапештская конвенция о киберпреступности (2001), устанавливающая стандарты криминализации деяний в сфере ИКТ. Дополнительно, в ООН в настоящее время разрабатывается новый всеобъемлющий договор о противодействии киберпреступности, который призван учесть современные угрозы, включая преступное использование передовых технологий (в переговорном процессе участвуют и Узбекистан, и Казахстан). Таким образом, на страновом уровне научные идеи и международные нормы постепенно транслируются в законодательные инициативы: примером служат и обсужденные выше законы об ИИ, где явно прослеживается влияние европейского подхода (запрет высокорискованных ИИ, требование прозрачности, защита данных и др.).

Необходимость адаптации законодательства. Проведенный анализ демонстрирует, что действующие уголовные кодексы Узбекистана и Казахстана уже содержат инструменты для наказания за большинство преступлений с использованием ИИ – как правило, по аналогии с компьютерными преступлениями или традиционными составами. Однако быстрый прогресс технологий диктует необходимость проактивной адаптации законодательства. Оба государства сделали важные первые шаги: интегрировали понятие ИИ в правовое поле, установили базовые запреты и обязанности, усилили нормы по защите информации. Следующий этап – более тонкая настройка уголовно-правовых норм. Возможные направления реформ включают: (1) выделение отягчающих обстоятельств для преступлений, совершенных с применением ИИ (что могло бы отражать повышенную сложность их раскрытия и большую потенциальную опасность); (2) закрепление ответственности за небрежное обращение с ИИ, повлекшее тяжкие последствия (аналогично как ответственность за источник повышенной опасности наступает при упущении контроля); (3) создание механизмов сертификации и аудита алгоритмов на предмет безопасности и отсутствия встроенных противоправных функций, с санкциями за несоблюдение требований, также необходимо развитие международного сотрудничества: киберпреступность и преступления с ИИ не знают границ, и для успешного их пресечения требуется обмен информацией и правовая помощь между странами. Присоединение Казахстана к Будапештской конвенции и активизация взаимодействия Узбекистана по линии СНГ и ШОС – шаги в этом направлении.

Стоит учесть и социально-этический аспект: законодатели двух стран заявляют о стремлении не тормозить развитие ИИ, а создать для него «правила игры» и безопасную среду. Это важно, поскольку чрезмерно жесткое или преждевременное криминализация новшеств может задушить инновации. Например, Казахстан прямо закрепил поддержку ИИ-отрасли и меры стимулирования разработок наряду с ограничениями. Узбекистан также подчеркивает, что новый закон об ИИ «не запрещает и не ограничивает» технологии, а лишь вводит основные принципы и требования. Таким образом, поиск баланса между безопасностью и инновациями является краеугольным камнем при реформировании уголовного законодательства. Научное сообщество призвано помочь в этом, предлагая модели регулирования, учитывающие как потенциал ИИ для экономики и правопорядка, так и риски его злоупотребления.

Заключение

Искусственный интеллект вносит глубокие изменения в сферу уголовно-правовых отношений, ставя перед законодательством и правоприменением нетривиальные задачи. Проведенное исследование показало, что Республика Узбекистан и Республика Казахстан предпринимают активные шаги для ответа на вызовы цифровой эпохи. Уголовные кодексы дополняются новыми нормами о преступлениях в сфере информационных технологий, принимаются специальные законы, регулирующие использование ИИ, и вводятся меры ответственности за неправомерное применение алгоритмов. В обоих государствах признана необходимость защиты прав граждан от таких феноменов, как кибермошенничество, утечка персональных данных, создание дипфейков и манипуляция информацией с помощью ИИ.

Узбекистан сосредоточен на интеграции базовых понятий ИИ в законодательство и профилактике наиболее очевидных угроз (например, введена обязанность маркировать ИИ-контент и запрет на незаконную обработку данных).

Казахстан пошел по пути всеобъемлющего законодательства – принял Закон об ИИ, который не только закрепляет принципы и права участников, но и прямо запрещает опасные виды ИИ-систем, такие как полностью автономные алгоритмы без контроля человека. Оба государства обновляют и сопутствующие нормы (административные, информационные, потребительские), чтобы создать гармоничную правовую среду для развития ИИ.

Вместе с тем, анализ выявил и ряд проблем. Прежде всего, уголовное право пока не дает исчерпывающих ответов на вопрос об ответственности в случаях, когда вред причинен самим решением ИИ, без непосредственного умысла человека. Не урегулированы тонкости квалификации таких ситуаций, отсутствуют прецеденты привлечения к ответственности за упущенный контроль над ИИ или за создание преднамеренно преступного алгоритма. Эта сфера потребует дальнейших законодательных усилий и, возможно, разработки новых специальных составов преступлений или разъяснения существующих. Кроме того, необходимо обеспечить подготовку правоохранителей и судей к работе с высокотехнологичными доказательствами: расследование преступлений, совершенных с использованием ИИ, требует специальных знаний в области кибернетики, экспертиз программного кода, сотрудничества с ИТ-экспертами. Нужны подробные методические рекомендации, учебные программы и техническая оснащенность органов, чтобы они эффективно противостояли «умной» преступности.

На международном уровне формируется консенсус, что регулирование ИИ в уголовной юстиции должно опираться на принципы прав человека и верховенства права. Узбекистан и Казахстан, интегрируясь в мировое правовое пространство, учитывают эти ориентиры при реформировании национальных норм. Важно продолжать обмен опытом: например, европейский опыт реализации риск-ориентированного подхода к ИИ уже частично воспринят в Казахстане, тогда как узбекистанская модель маркировки ИИ-контента может представить интерес и для других стран как инструмент противодействия дезинформации.

Подводя итог, искусственный интеллект стал не только новым инструментом совершения преступлений, но и новым объектом правового регулирования в уголовном праве. Законодательство Узбекистана и Казахстана находится в стадии трансформации под влиянием цифровых технологий. В ближайшие годы следует ожидать дальнейшего развития нормативной базы: вероятно, появятся уточненные составы преступлений, судебная практика сформирует подходы к оценке вины при участии ИИ, а институты уголовной юстиции обретут новые возможности (и ответственность) в использовании ИИ для поддержания правопорядка. Главная цель этих процессов – обеспечить, чтобы стремительный прогресс технологий служил людям, а не создавал угрозу их безопасности. Для этого уголовное право должно сохранять гибкость и приверженность своим основополагающим принципам, одновременно смело отвечая на вызовы XXI века.

 

Список литературы:

  1. Құрманғали М.Ш.. Влияние цифровизации и искусственного интеллекта на уголовное право: краткий обзор современных зарубежных исследований –  URL:  https://online.zakon.kz/Document/?doc_id=35690135&pos=6;-106#pos=6;-106  (дата обращения 15.09.2025)
  2. В Узбекистане принимается закон об искусственном интеллекте. О чем в нем говорится? –  URL:  https://kun.uz/ru/news/2025/04/17/v-uzbekistane-prinimayetsya-zakon-ob-iskusstvennom-intellekte-o-chyom-v-nem-govoritsya (дата обращения 15.09.2025)
  3. Бахрам Худайбергенов Ответственность за преступления в сфере искусственного интеллекта и цифровых активов в Республике Узбекистан –  URL:  https://yuz.uz/ru/news/otvetstvennost-za-prestupleniya-v-sfere-iskusstvennogo-intellekta-i-tsifrovx-aktivov-v-respublike-uzbekistan (дата обращения 15.09.2025)
  4. Незримые: лишь 5% уголовных дел по хакерским преступлениям в Казахстане доходит до суда –  URL:  https://finprom.kz/ru/article/nezrimye-lish-5-ugolovnyh-del-po-hakerskim-prestupleniyam-v-kazahstane-dohodit-do-suda (дата обращения 15.09.2025)
  5. Искусственный интеллект (ИИ) в Казахстане: новые законы, обязанности и штрафы (проект) –  URL:  https://pro1c.kz/news/zakonodatelstvo/ii-v-kazakhstane-novye-zakony-obyazannosti-i-shtrafy/ (дата обращения 15.09.2025)
  6. Франческо Контини Искусственный интеллект: Новый способ ненадлежащего воздействия на судебные органы? –  URL:  https://www.unodc.org/dohadeclaration/ru/news/2019/06/artificial-intelligence_-a-new-trojan-horse-for-undue-influence-on-judiciaries.html (дата обращения 15.09.2025)
Информация об авторах

д-р юрид. наук, исполняющий обязанности профессора Ташкентского государственного юридического университета, Республика Узбекистан, г. Ташкент

Doctor of Law, Acting Professor Tashkent State University of Law, Republic of Uzbekistan, Tashkent

канд. юрид. наук, ассоциированный проф., проф. кафедры уголовного права, процесса и криминалистики, Карагандинского Национального Исследовательского университет имени академика Е.А. Букетова, Республика Казахстан, г. Караганда

Candidate of Legal Sciences, Associate Professor, Professor, Department of Criminal Law, Criminal Procedure and Criminalistics, Academician E.A. Buketov Karaganda National Research University, Kazakhstan, Karaganda

Журнал зарегистрирован Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор), регистрационный номер ЭЛ №ФС77-54432 от 17.06.2013
Учредитель журнала - ООО «МЦНО»
Главный редактор - Гайфуллина Марина Михайловна.
Top