ФЕМИДА В ЭПОХУ АЛГОРИТМОВ: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК НОВАЯ ПРОЦЕССУАЛЬНАЯ РЕАЛЬНОСТЬ РОССИЙСКОГО СУДОПРОИЗВОДСТВА

THEMIS IN THE AGE OF ALGORITHMS: ARTIFICIAL INTELLIGENCE AS A NEW PROCEDURAL REALITY OF RUSSIAN LEGAL PROCEEDINGS
Забавко С.Р.
Цитировать:
Забавко С.Р. ФЕМИДА В ЭПОХУ АЛГОРИТМОВ: ИСКУССТВЕННЫЙ ИНТЕЛЛЕКТ КАК НОВАЯ ПРОЦЕССУАЛЬНАЯ РЕАЛЬНОСТЬ РОССИЙСКОГО СУДОПРОИЗВОДСТВА // Universum: экономика и юриспруденция : электрон. научн. журн. 2026. 5(139). URL: https://7universum.com/ru/economy/archive/item/22492 (дата обращения: 12.05.2026).
Прочитать статью:
Статья поступила в редакцию: 08.04.2026
Принята к публикации: 21.04.2026
Опубликована: 01.05.2026

 

АННОТАЦИЯ

Статья посвящена анализу интеграции технологий искусственного интеллекта в систему судопроизводства Российской Федерации. На основе сравнительного анализа зарубежных практик (США, КНР, государства ЕС) и отечественных экспериментальных проектов автором выявляются ключевые процессуальные барьеры, препятствующие легализации ИИ-инструментов. Особое внимание уделяется влиянию цифровой политики государства на внедрение алгоритмических систем: рассматривается дилемма между повышением эффективности правосудия и рисками репрессивного использования технологий. Формулируются предложения по процессуальной адаптации законодательства, необходимые для сохранения принципов состязательности и независимости судебной власти в условиях цифровой трансформации.

ABSTRACT

The article analyzes the integration of artificial intelligence technologies into the judicial system of the Russian Federation. Based on a comparative analysis of foreign practices (the USA, China, EU member states) and domestic experimental projects, the author identifies key procedural barriers that hinder the legalization of AI tools. Special attention is paid to the impact of the state’s digital policy on the implementation of algorithmic systems: the dilemma between enhancing the efficiency of justice and the risks of repressive use of technologies is examined. Proposals are formulated for procedural adaptation of legislation necessary to preserve the principles of adversarial process and judicial independence in the context of digital transformation.

 

Ключевые слова: искусственный интеллект, судопроизводство, цифровая трансформация, процессуальное законодательство, алгоритмическая прозрачность, электронное правосудие, цифровой суверенитет.

Keywords: artificial intelligence, legal proceedings, digital transformation, procedural law, algorithmic transparency, e-justice, digital sovereignty

 

Введение: юридическая онтология алгоритмов

Современное правосудие вступает в фазу, которую всё чаще характеризуют как «алгоритмический поворот». Если ещё десятилетие назад цифровизация ограничивалась электронным документооборотом и аудиопротоколированием заседаний, то в настоящее время речь идёт о внедрении систем, способных самостоятельно классифицировать дела, прогнозировать судебные решения и даже участвовать в формировании доказательственной базы. В России этот процесс развивается противоречиво: с одной стороны, государство декларирует курс на технологический суверенитет и создание «умных» судов[5], с другой — внедрение искусственного интеллекта (ИИ) сталкивается с консервативностью процессуального права, отсутствием специализированного регулирования и нарастающими трендами цифрового контроля, которые порождают обоснованные опасения относительно алгоритмической объективности[6].

Цель данной работы — не просто описать текущее состояние, но и предложить системное видение того, какие процессуальные изменения необходимы для имплементации ИИ в российское судопроизводство, учитывая при этом специфику отечественной модели цифрового управления, которую ряд исследователей характеризует через понятия «репрессивная политика» и «цензура».

1. Зарубежные прецеденты: от вспомогательных инструментов к «электронным судьям»

За рубежом технологии ИИ уже заняли устойчивое место в судебных системах, однако спектр их применения варьируется от добровольных аналитических сервисов до квазисудебных автоматизированных решений.

Соединённые Штаты Америки стали полигоном для одной из самых противоречивых систем — COMPAS (Correctional Offender Management Profiling for Alternative Sanctions), используемой для оценки риска рецидива. Алгоритм, основанный на статистическом анализе, влиял на решения об избрании меры пресечения и условно-досрочном освобождении. В 2016 году расследование ProPublica выявило систематическую расовую предвзятость, что спровоцировало дискуссию о «чёрных ящиках» в правосудии[7]. В ответ судебные органы США не отказались от ИИ, но ужесточили требования к объяснимости алгоритмов: в 2020 году был предложен Algorithmic Accountability Act, хотя федерального закона, унифицирующего применение ИИ в судах, до сих пор нет.

Китай демонстрирует наиболее амбициозный подход. В Шэньчжэне с 2019 года функционирует «Интеллектуальный суд будущего» (AI Court), где ИИ обрабатывает до 80% мелких гражданских дел, включая автоматическое формирование судебных актов. Система «Синьхуа» (Xinhua) использует NLP-алгоритмы для анализа исковых заявлений и сопоставления их с правовыми нормами. В Сучжоу внедрена платформа «Интеллектуальное правосудие 2.0», которая, помимо распознавания речи, предлагает судье проекты решений на основе анализа миллионов архивных дел. Важно, что китайская модель интеграции ИИ идёт рука об руку с тотальной системой социального кредита, где алгоритмы выполняют не только процессуальные, но и дисциплинарно-контрольные функции, что порождает серьёзные вопросы о независимости судейского усмотрения.

Европейский союз избрал путь превентивного регулирования. В 2018 году была принята Европейская этическая хартия использования искусственного интеллекта в судебных системах, разработанная Европейской комиссией по эффективности правосудия (CEPEJ)[8]. Документ вводит принципы: прозрачность, подотчётность, сохранение человеческого контроля. На практике в Эстонии разработана система AI Judge для рассмотрения дел с ценой иска до 7 000 евро — алгоритм предлагает решение, которое может быть принято или отклонено сторонами. Во Франции проект DataJust анализирует судебную практику для оценки размера компенсаций, но с оговоркой: алгоритм не может заменить судью. Нидерланды и Италия используют ИИ для автоматической анонимизации судебных актов и прогнозирования нагрузки.

Таким образом, зарубежный опыт демонстрирует, что внедрение ИИ в судопроизводство идёт по трём сценариям:

  1. Ассистивный (ЕС) — ИИ как инструмент поддержки судьи, не имеющий обязательной силы.
  2. Супервайзерный (Китай) — алгоритмы активно участвуют в принятии решений, подчинённых государственной политике цифрового контроля.
  3. Рыночно-сегментированный (США) — использование ИИ в отдельных процедурах, но без единой доктрины, что приводит к рассогласованию и рискам дискриминации.

2. Российская практика: цифровой контур без «электронного разума»

В России идея «умного правосудия» развивается в рамках государственной программы «Цифровая экономика» и ведомственных проектов Судебного департамента при Верховном Суде РФ[9]. Однако фактически внедрение ИИ носит фрагментарный характер и сосредоточено преимущественно в трёх направлениях.

Автоматизированный документооборот и классификация дел. ГАС «Правосудие» и сервис «Мой арбитр» уже используют элементы ИИ для распознавания текстов исковых заявлений, автоматической регистрации и распределения дел между судьями. В арбитражных судах действует система «Электронное правосудие», позволяющая в онлайн-режиме отслеживать движение дела. Однако эти инструменты остаются в рамках «цифрового контура» — они автоматизируют рутинные операции, но не анализируют содержание спора.

Экспериментальные разработки. В 2020–2022 годах в ряде судов общей юрисдикции (Москва, Татарстан) тестировалась технология распознавания судебной речи «Фемида», разработанная при участии Сбербанка. Система позволяла автоматически формировать протокол судебного заседания с высокой точностью. В арбитражных судах внедрён сервис «Цифровой помощник судьи», который на основе NLP-моделей подбирает аналогичные судебные акты из базы данных. Эти проекты позиционируются как «вспомогательные» и не затрагивают вопросов алгоритмического решения дела.

Прогностическая аналитика. Наиболее дискуссионное направление. Ряд исследовательских коллективов (НИУ ВШЭ, Сколково)[11] разработали модели прогнозирования исходов судебных разбирательств на основе открытых данных. В 2023 году Верховный Суд РФ публично дистанцировался от идеи «робота-судьи», указав, что окончательное решение всегда остаётся за человеком. Однако отсутствие законодательного запрета на использование прогнозных алгоритмов в доказывании создаёт правовую неопределённость: фактически судья может ознакомиться с результатами ИИ-анализа, но процессуально эта информация не фиксируется, что исключает возможность её обжалования.

Таким образом, российская практика находится на этапе «цифрового анклава»: технологии внедряются точечно, без пересмотра процессуальных кодексов, что приводит к дуализму — формально правосудие осуществляется по классическим правилам, реально судьи всё чаще обращаются к нерегулируемым ИИ-сервисам.

3. Процессуальные изменения: от «цифрового довеска» к системной интеграции

Для того чтобы ИИ перестал быть «чёрным ящиком» и органично вписался в систему судопроизводства, необходимо внесение изменений в процессуальное законодательство как минимум по четырём направлениям. Как справедливо отмечают исследователи, цифровая трансформация правосудия сопряжена с необходимостью пересмотра традиционных процессуальных институтов, включая принципы непосредственности и устности судебного разбирательства[10, с.45-62].

3.1. Правовой статус ИИ-инструментов.

Ни ГПК РФ[2], ни АПК РФ[1], ни УПК РФ[3], ни КАС РФ[4] не содержат упоминания о возможности использования алгоритмических систем для оценки доказательств или подготовки судебных актов. Требуется легализовать понятие «автоматизированная информационная система с элементами искусственного интеллекта» и закрепить её место в системе правосудия как вспомогательного инструмента, не обладающего дискреционными полномочиями. Представляется необходимым введение отдельной статьи в раздел о технических средствах судопроизводства, где будет определён перечень допустимых ИИ-функций: автоматизация протоколирования, подбор судебной практики, аналитика судебной нагрузки, предварительная классификация дел.

3.2. Регулирование алгоритмического доказывания.

Наиболее сложный вопрос — использование ИИ для оценки доказательств. Если система выявляет противоречия в показаниях или предлагает вероятностный вывод, это должно быть отражено в протоколе, а сторонам предоставлено право на ознакомление с алгоритмическим расчётом. В противном случае нарушается принцип состязательности. По аналогии с экспертным заключением, результат работы ИИ-системы следует оформлять как справку аналитического характера, которая не имеет заранее установленной силы и может быть оспорена сторонами.

3.3. Принцип объяснимости (explainability).

Любой алгоритм, используемый в судопроизводстве, должен быть способен предоставить логику своего вывода на языке, понятном человеку. Это требование идёт вразрез с современными глубинными нейросетями, работающими по принципу «чёрного ящика». Необходимо либо законодательно закрепить приоритет интерпретируемых моделей, либо ввести обязанность государства раскрывать исходный код и обучающие выборки для независимого аудита. Без этого внедрение ИИ будет противоречить принципам гласности и обоснованности судебного решения.

3.4. Юридическая ответственность.

При ошибке алгоритма (например, неверной классификации дела или ошибочном прогнозе) должен сохраняться принцип человеческой ответственности. Судья, принявший решение с опорой на ИИ, не может автоматически перекладывать вину на разработчика. Вместе с тем необходимо разработать механизм гражданско-правовой ответственности создателей ИИ-систем для случаев, когда дефект алгоритма привёл к нарушению прав участников процесса и не мог быть выявлен судьёй при разумной осмотрительности.

4. Цифровая репрессивная политика и цензура: дилемма внедрения

Фраза «цифровая репрессивная политика» требует в научной статье операционализации. Под ней следует представлять комплекс мер государственного контроля над информационным пространством: расширение полномочий Роскомнадзора по блокировке контента, законодательное ограничение иностранного программного обеспечения, введение административной и уголовной ответственности за «недостоверные» сведения в интернете, а также создание суверенной инфраструктуры обработки данных. В контексте внедрения ИИ в судопроизводство эта политика создаёт как стимулы, так и риски.

Стимулы. Стремление к технологическому суверенитету ускоряет разработку отечественных ИИ-решений. Судебные органы активно переходят на российское ПО, что потенциально может способствовать унификации цифровых сервисов. Кроме того, идеология «цифрового контроля» подталкивает к созданию систем, способных отслеживать эффективность судей и пресекать коррупционные риски — здесь ИИ может выступать инструментом надзора, который формально повышает прозрачность.

Риски. Однако в условиях, когда цензурные механизмы всё глубже проникают в цифровую среду, возникает опасность, что алгоритмы правосудия будут ориентированы не на формальное равенство, а на «государственный интерес» в ущерб независимости суда. Если ИИ-системы изначально обучаются на выборках, прошедших цензурную фильтрацию (например, из судебных актов могут исключаться «нежелательные» правовые позиции), алгоритм будет воспроизводить и усиливать репрессивные тенденции. Более того, в условиях, когда критика работы судов приравнивается к дискредитации власти, независимый аудит алгоритмов становится невозможным.

Ещё один аспект — доступ к данным. Для обучения эффективных моделей ИИ требуются большие массивы судебных актов, которые в России, несмотря на принцип открытости правосудия, часто анонимизируются с избыточностью, что снижает качество обучающих выборок. Парадоксально, но политика защиты персональных данных в сочетании с цензурными ограничениями приводит к тому, что государственные органы получают эксклюзивный доступ к «чистым» данным, а научное сообщество и правозащитные организации лишаются возможности проводить независимый алгоритмический аудит.

Таким образом, в текущих политико-правовых условиях внедрение ИИ возможно, но оно будет идти по авторитарному сценарию: системы будут разрабатываться исключительно под контролем государства, без участия гражданского общества, а их работа останется непрозрачной. Это чревато тем, что «цифровая Фемида» окажется не более чем технологическим продолжением административно-командной логики.

Заключение: между эффективностью и свободой

Искусственный интеллект объективно становится новой процессуальной реальностью. Он способен освободить судей от рутинной работы, сократить сроки рассмотрения дел и повысить предсказуемость правосудия. Однако эти преимущества достигаются лишь при условии системной процессуальной реформы, закрепляющей прозрачность, подотчётность и вспомогательную роль алгоритмов.

Российское судопроизводство стоит перед выбором: либо ИИ будет внедряться фрагментарно, усиливая разрыв между формальным правом и реальными цифровыми практиками, либо законодатель предпримет рискованный, но необходимый шаг — легализует ИИ-инструменты с одновременным созданием механизмов независимого контроля, включая судебный аудит алгоритмов. В условиях цифровой репрессивной политики этот выбор приобретает экзистенциальное значение для судебной системы: станет ли ИИ инструментом освобождения правосудия от бюрократической нагрузки или же он превратится в техническое средство тотального контроля, окончательно подрывающего доверие к суду.

Ответ на этот вопрос лежит не в плоскости технологий, а в плоскости политической воли и правовой культуры. Пока же российская Фемида только примеряет алгоритмические одежды, сохраняя глубокую инерционность процессуальной формы, что позволяет надеяться на возможность корректировки вектора цифровизации в сторону защиты прав личности.

 

Список литературы:

  1. Арбитражный процессуальный кодекс Российской Федерации: фед. закон. от 24.07.2002 № 95-ФЗ (ред. от 15.12.2025) // URL: https://www.consultant.ru/document/cons_doc_LAW_37800/?ysclid=mnrtdi7sj500672135 (дата обращения: 01.03.2026).
  2. Гражданский процессуальный кодекс Российской Федерации: фед. закон. от 14.11.2002 № 138-ФЗ (ред. от 15.12.2025) // URL: https://www.consultant.ru/document/cons_doc_LAW_39570/?ysclid=mnrtelbnyj232332894 (дата обращения: 01.03.2026).
  3. 3. Уголовно-процессуальный кодекс Российской Федерации: фед. закон. от 18.12.2001 № 174-ФЗ (ред. от 08.03.2026) // URL: https://www.consultant.ru/document/cons_doc_LAW_34481/?ysclid=mnrtfthotw608438706 (дата обращения: 01.03.2026).
  4. Кодекс административного судопроизводства Российской Федерации: фед. закон. от 08.03.2015 № 21-ФЗ (ред. от 29.12.2025) // URL: https://www.consultant.ru/document/cons_doc_LAW_176147/?ysclid=mnrtgvyz9x279369720 (дата обращения: 01.03.2026).
  5. О Стратегии развития информационного общества в Российской Федерации на 2017–2030 годы : Указ Президента РФ от 09.05.2017 № 203 [электронный ресурс] // Сайт «КонсультантПлюс» URL: https://www.consultant.ru/document/cons_doc_LAW_216363/  (дата обращения: 01.03.2026).
  6. О развитии искусственного интеллекта в Российской Федерации" (вместе с "Национальной стратегией развития искусственного интеллекта на период до 2030 года: Указ Президента РФ от 10.10.2019 N 490 (ред. от 15.02.2024) [электронный ресурс] // Официальный интернет-портал правовой информации URL: http://www.pravo.gov.ru (дата обращения: 01.03.2026).
  7. ProPublica. Machine Bias / J. Angwin, J. Larson, S. Mattu, L. Kirchner. — 2016. — URL: https://www.propublica.org/article/machine-bias-risk-assessments-in-criminal-sentencing  (дата обращения: 01.03.2026).
  8. European Ethical Charter on the Use of Artificial Intelligence in Judicial Systems. – Strasbourg : CEPEJ, 2018. — 12 p. — URL: https://rm.coe.int/ethical-charter-en-for-publication-4-december-2018/16808f699c (дата обращения: 01.03.2026).
  9. Паспорт ведомственного проекта «Цифровая трансформация судебной системы»: утв. Судебным департаментом при Верховном Суде РФ 21.12.2021 [электронный ресурс] // Официальный сайт Судебного департамента при Верховном Суде РФ. – URL: http://www.cdep.ru  (дата обращения: 02.03.2026).
  10. Афанасьев С. Ф., Исаенкова О. В. Цифровое правосудие: проблемы и перспективы // Вестник гражданского процесса. — 2023. — № 2. — С. 45 - 62.
  11. Искусственный интеллект в правосудии: российские практики и международный опыт: отчет о исследовании / Институт права и развития НИУ ВШЭ; под ред. В. В. Севастьянова. – М.: Изд. дом Высшей школы экономики, 2024. — 112 с.
Информация об авторах

магистрант, Новосибирский государственный университет экономики и управления "НИНХ" (НГУЭУ), РФ, г. Новосибирск

Master’s student Novosibirsk State University of Economics and Management "NINH" (NSUEMU), Russia, Novosibirsk

Журнал зарегистрирован Федеральной службой по надзору в сфере связи, информационных технологий и массовых коммуникаций (Роскомнадзор), регистрационный номер ЭЛ №ФС77-54432 от 17.06.2013
Учредитель журнала - ООО «МЦНО»
Главный редактор - Гайфуллина Марина Михайловна.
Top