The article discusses the ethical issues of using artificial intelligence in criminal proceedings. It is argued that AI can only be used as an auxiliary tool that does not replace judicial discretion based on moral principles and conscience.
Keywords: artificial intelligence, judicial system, criminal proceedings, judicial discretion, digitalization of justice.
Вопрос об этических границах применения технологий искусственного интеллекта в судебной системе занимает одно из центральных мест в современной дискуссии о цифровизации правосудия. Развитие алгоритмических систем анализа данных, автоматизации юридических процессов и интеллектуальной обработки судебной практики открывает новые возможности для повышения эффективности правоприменительной деятельности. Однако одновременно использование подобных технологий ставит перед правовой наукой и судебной системой ряд этических проблем, затрагивающих базовые принципы правосудия — справедливость, независимость судьи, презумпцию невиновности и гуманистическую природу судебного акта.
Следует согласиться, что искусственный интеллект может выступать только в качестве вспомогательного инструмента в судебной деятельности. Опасения связаны прежде всего с риском трансформации правосудия из индивидуализированного акта в статистически обусловленный алгоритмический процесс, где судьба конкретного человека будет определяться не правосознанием судьи, а математической моделью. Поэтому вынесение приговора или оценка доказательств — это прерогатива исключительно человека [3, с. 12].
Одной из этических проблем применения искусственного интеллекта в уголовном судопроизводстве является невозможность формирования алгоритмом внутреннего убеждения судьи. В соответствии со ст. 17 УПК РФ судья, присяжные заседатели, а также прокурор, следователь, дознаватель оценивают доказательства по своему внутреннему убеждению, основанному на совокупности имеющихся в уголовном деле доказательств, руководствуясь при этом законом и совестью [1]. Данное положение отражает принцип уголовного судопроизводства, предполагающий не только формальную оценку доказательств, но и их нравственно-правовое осмысление.
Искусственный интеллект, функционирующий на основе алгоритмов машинного обучения, анализирует статистические зависимости и закономерности в массиве данных. Он способен выявлять корреляции между различными параметрами, однако не обладает правосознанием, нравственными ориентирами и способностью к сомнению — теми элементами, которые являются неотъемлемой частью судебного усмотрения.
ИИ — это технология, не обладающая правосубъектностью, опытом, морально-этическими качествами и компетенциями, необходимыми для осуществления правосудия. Только человек, руководствуясь совестью и законом, может решать судьбу обвиняемого [4].
Например, при рассмотрении уголовного дела о причинении тяжкого вреда здоровью судья может учитывать широкий спектр обстоятельств, характеризующих личность подсудимого: его поведение после совершения преступления, раскаяние, отношение к потерпевшему, жизненные обстоятельства, наличие иждивенцев и иные факторы. В ряде случаев суд признает смягчающими обстоятельствами факты, прямо не указанные в ст. 61 УК РФ, поскольку перечень таких обстоятельств носит открытый характер [2]. Искусственный интеллект, ориентированный на формализованные критерии, не способен самостоятельно выявить подобные нюансы человеческого поведения и придать им юридическое значение.
Решение о виновности или невиновности лица представляет собой не только юридический, но и нравственный акт. Судья, принимая решение, руководствуется не только буквой закона, но и совестью, принципами справедливости и гуманизма. Алгоритм, лишенный морального измерения, не может воспроизвести данный механизм правового мышления.
Как верно указывает О. В. Качалова, внедрение современных технологий в производство по уголовным делам также несет в себе риски того, что алгоритмы машинного обучения могут допускать ошибки, которые могут привести к несправедливым решениям, сбор и обработка больших объемов данных может нарушать конфиденциальность персональных данных [5, с. 74].
Многие алгоритмы машинного обучения формируют выводы на основе сложных математических моделей, логика функционирования которых остается непрозрачной.
В рамках судебной деятельности данное обстоятельство вызывает опасения. Суд обязан обосновывать выводы относительно фактических обстоятельств дела, правовой квалификации деяния и назначения наказания. Участники процесса должны понимать, на основании каких доказательств и юридических аргументов суд пришел к соответствующему выводу.
Если алгоритм искусственного интеллекта будет использоваться при оценке доказательств или прогнозировании судебных решений, возникает вопрос о том, каким образом можно проверить корректность такого анализа. Участник процесса вправе знать, какие факторы повлияли на итоговое решение. Однако нейросетевая модель зачастую не может предоставить объяснения своей логики, так как результат формируется в результате обработки большого количества скрытых параметров.
Еще одним этическим вызовом является проблема алгоритмической предвзятости. Искусственный интеллект обучается на основе массивов данных, сформированных в результате предыдущей правоприменительной практики. Если в этих данных присутствуют системные ошибки, стереотипы, алгоритм воспроизводит такие искажения.
Юридическое сообщество столкнулось с проблемой выдуманных искусственным интеллектом толкований норм права и актов судебной практики, на которых стороны основывают свою позицию в суде. Программисты называют это явление «галлюцинациями нейросетей»: ИИ заполняет генерируемый им текст в части пробелов вымышленным контентом [6].
Например, если в обучающей выборке преобладают приговоры с более строгими санкциями по определенной категории преступлений, система может формировать рекомендации, ориентированные на более суровые наказания, даже в тех случаях, когда конкретные обстоятельства дела требуют более мягкого подхода.
Подобная ситуация противоречит принципу индивидуализации наказания. Судебное решение должно учитывать особые обстоятельства каждого конкретного дела, а не опираться исключительно на статистические закономерности.
Несмотря на риски, отказ от технологий невозможен из-за растущей нагрузки на судей. Эксперты видят этичный компромисс в использовании ИИ в качестве ассистента для задач, где его работа не влияет напрямую на существо решения и остается под полным контролем человека, в частности:
– стенографирование и протоколирование — приведет к повышению точности и скорости подготовки протоколов;
– составление описи материалов дела, автоматическую регистрацию и контроль сроков подачи документов — поможет упорядочить документооборот и снизить риск процессуальных ошибок, связанных со сроками;
– автоматическое создание кратких обзоров (саммари) представленных сторонами документов, заключений экспертов и показаний — ускорит изучение материалов дела судьей;
– проверку соблюдения формальных требований к документам, контроль ссылок на нормы закона и судебную практику, выявление технических ошибок — позволит минимизировать основания для обжалования, связанных с недочетами оформления [4].
Таким образом, с одной стороны, цифровые технологии способны существенно повысить эффективность судебной системы, в частности, ускорить обработку документов, облегчить анализ судебной практики, снизить нагрузку на судей и работников аппарата суда. С другой стороны, чрезмерная алгоритмизация правоприменительной деятельности может привести к утрате индивидуального подхода к человеку, превращению судебного процесса в механическую процедуру статистической обработки данных.
В данной связи следует подчеркнуть необходимость соблюдения принципа человека в центре правосудия. Искусственный интеллект может использоваться в качестве вспомогательного инструмента, например, для поиска судебной практики, анализа документов или автоматизации административных процедур. Однако окончательное решение по делу должно приниматься только судьей, который способен оценить не только юридические, но и морально-этические аспекты уголовного дела. Использование технологий допустимо лишь в той мере, в какой они усиливают возможности судьи, но не подменяют его профессиональное и нравственное усмотрение.
Литература:
- Уголовно-процессуальный кодекс Российской Федерации от 18.12.2001 № 174-ФЗ (ред. от 20.02.2026) // Собрание законодательства РФ. — 24.12.2001. — № 52 (ч. I). — ст. 4921.
- Обзор судебной практики Верховного Суда Российской Федерации № 1 (2024) (утв. Президиумом Верховного Суда РФ 29.05.2024) (ред. от 27.11.2024) // Бюллетень Верховного Суда РФ. — № 7. — 2024.
- Воскобитова, Л. А. Уголовное судопроизводство: трансформация теоретических представлений и регулирования в условиях цифровизации: монография / отв. ред. Л. А. Воскобитова, В. И. Пржиленский. — М.: ИНФРА-М, 2022. — 288 с.
- Искусственный интеллект вместо судьи: что делать, если приговор пишет нейросеть? [Электронный ресурс]. — URL: https://legalacademy.ru/sphere/post/iskusstvennyi-intellekt-vmesto-sudi-chto-delat-esli-prigovor-pishet-neiroset (дата обращения: 12.03.2026).
- Качалова, О. В. Частные и публичные интересы при производстве по уголовным делам и цифровизация уголовного судопроизводства / О. В. Качалова // Правовое государство: теория и практика. — 2025. — № 1 (79). — С. 69–77.
- Нейросети как угроза развитию судебной практики и профессиональная юридическая этика [Электронный ресурс]. — URL: https://pravo.ru/opinion/260283/ (дата обращения: 12.03.2026).

