Отправьте статью сегодня! Журнал выйдет 2 августа, печатный экземпляр отправим 6 августа
Опубликовать статью

Молодой учёный

Юридические риски использования искусственного интеллекта при принятии управленческих решений в корпоративных структурах

Юриспруденция
12.06.2025
1
Поделиться
Библиографическое описание
Бавин, Д. Е. Юридические риски использования искусственного интеллекта при принятии управленческих решений в корпоративных структурах / Д. Е. Бавин. — Текст : непосредственный // Молодой ученый. — 2025. — № 24 (575). — С. 313-314. — URL: https://moluch.ru/archive/575/126615/.


Статья посвящена правовым рискам применения искусственного интеллекта при управлении корпоративными структурами. Рассматриваются вопросы ответственности, деликтов, корпоративных споров и непрозрачности алгоритмов. Приводится анализ российского законодательства и зарубежных подходов.

Ключевые слова: искусственный интеллект, корпоративное управление, юридическая ответственность, алгоритмическое принятие решений, прозрачность ИИ.

Использование технологий искусственного интеллекта (ИИ) в корпоративном управлении способно повысить эффективность управленческих решений, однако сопряжено с юридическими рисками. Правовое регулирование применения ИИ при принятии решений в организациях в Российской Федерации пока находится на начальном этапе. В 2020 году понятие ИИ впервые закреплено законодательно в рамках экспериментального правового режима в г. Москве [1], но данный акт не решил вопрос об ответственности в случае сбоев или ошибок работы алгоритмов. Таким образом, компании вынуждены опираться на общие нормы гражданского и корпоративного права, которые не учитывают всех специфических особенностей ИИ.

Российское законодательство возлагает на руководителей организаций обязанность действовать в интересах компании добросовестно и разумно. Статья 53.1 Гражданского кодекса РФ предусматривает, что лицо, уполномоченное выступать от имени юридического лица, обязано возместить убытки, причинённые по его вине, если будет доказано, что при осуществлении своих прав и исполнении обязанностей оно действовало недобросовестно или неразумно [2]. Аналогично, ст. 71 Федерального закона от 26.12.1995 № 208-ФЗ «Об акционерных обществах» обязывает членов органов управления действовать добросовестно и разумно и устанавливает их ответственность перед обществом за убытки, причиненные виновными действиями [3]. Следование рекомендациям ИИ не освобождает менеджмент от этих обязанностей. Напротив, слепое доверие к непрозрачному алгоритму может расцениваться как небрежность, то есть нарушение стандарта разумности действий управленца.

Второй риск связан с возможным причинением вреда третьим лицам вследствие решений, принятых с участием ИИ. По общему правилу (ст. 1064 ГК РФ) вред, причинённый личности или имуществу гражданина либо организации, подлежит возмещению в полном объёме лицом, его причинившим [2]. Таким образом, если алгоритм, задействованный в управлении, приводит к ошибочным действиям и наносит ущерб контрагентам или потребителям, ответственность перед потерпевшими понесёт сама компания как сторона, от имени которой действовал ИИ. Более того, использование ИИ в отдельных случаях может быть квалифицировано как деятельность, создающая повышенную опасность для окружающих, что влечёт ответственность организации независимо от вины [2, ст. 1079]. Специальные же нормы о возмещении вреда, причинённого ИИ, в российском законодательстве отсутствуют, вследствие чего остаётся неопределённым распределение ответственности между разработчиками алгоритмов и их пользователями.

Применение ИИ в управленческих решениях способно спровоцировать корпоративные конфликты. Акционеры или участники могут оспаривать решения органов управления, принятые в основном на основе рекомендаций алгоритма, особенно если такие решения повлекли убытки для общества или ущемление прав миноритариев. Возникает вопрос о действительности таких решений и сделок. Если будет установлено, что руководители фактически не осуществили самостоятельной бизнес-оценки, а бездумно следовали выводам программы, такие решения могут быть признаны недействительными. Например, совершение крупной сделки без надлежащего одобрения, основываясь только на советах ИИ, может рассматриваться как нарушение установленного порядка и превышение полномочий органа. В соответствии с ГК РФ, сделка, совершенная с превышением полномочий, может быть признана недействительной, если контрагент знал или должен был знать о таком превышении [2, ст. 174]. Следовательно, чрезмерная автономия алгоритмов без контроля со стороны уполномоченных лиц несет риск оспаривания сделок и управленческих актов внутри компании.

«Черный ящик» ИИ представляет отдельный юридический риск. Непрозрачность алгоритмов затрудняет оценку обоснованности и правомерности принимаемых решений. Руководство компании может оказаться не в состоянии объяснить мотивы решения, что усложняет как внутренний аудит, так и судебное разбирательство при возникновении спора. В отсутствие объяснимости алгоритма менеджерам сложнее доказать, что они действовали разумно и добросовестно. Зарубежный опыт показывает, что данная проблема осознается регуляторами: в Европейском союзе «право на объяснение» результатов работы высокорисковых алгоритмических систем планируется закрепить законодательно. Если же решения ИИ непрозрачны для проверяющих органов и инвесторов, это может повлечь дополнительные претензии и санкции к компании.

Для иллюстрации следует отметить, что в международной практике вырабатываются подходы к регулированию обозначенных рисков. Европейский союз разрабатывает комплексный нормативный акт об ИИ — Регламент (ЕС) 2024/1689, который системно регулирует использование ИИ и устанавливает обязательные требования по управлению рисками и прозрачности алгоритмов [4]. В США пока отсутствует единый закон об ИИ, и вопросы ответственности решаются посредством общих норм и саморегулирования. Например, в г. Нью-Йорк вступил в силу местный закон, запрещающий компаниям использовать автоматизированные системы для найма персонала без предварительного аудита на отсутствие дискриминации.

Таким образом, использование ИИ при принятии управленческих решений в корпоративных структурах влечёт комплекс юридических рисков, связанных с ответственностью, деликтными обязательствами, корпоративными спорами и неопределённостью правового статуса алгоритмов. В настоящее время специальные нормы для ИИ отсутствуют, и применяются общие положения гражданского и корпоративного права. Развитие правового регулирования в этой сфере представляется необходимым. Перспективными направлениями совершенствования законодательства являются: введение специальных правил ответственности за вред, причинённый ИИ (включая распределение рисков между разработчиком и пользователем алгоритма), закрепление требований к прозрачности и объяснимости используемых в корпоративном управлении алгоритмов, а также уточнение статуса и юридической силы решений, принимаемых с участием ИИ, в нормах о корпоративном управлении. С учётом зарубежного опыта, российский законодатель может заблаговременно выработать подходы, обеспечивающие баланс между инновационным развитием и защитой прав участников корпоративных отношений и третьих лиц.

Литература:

  1. Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования технологий искусственного интеллекта в городе Москве». — Доступ из СПС «КонсультантПлюс». — Текст: электронный.
  2. Гражданский кодекс Российской Федерации (часть первая от 30.11.1994 № 51-ФЗ, часть вторая от 26.01.1996 № 14-ФЗ) (ред. от 31.10.2024).– Доступ из СПС «КонсультантПлюс». — Текст: электронный.
  3. Федеральный закон от 26.12.1995 № 208-ФЗ «Об акционерных обществах» (ред. от 30.11.2024). — Доступ из СПС «КонсультантПлюс». — Текст: электронный.
  4. Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 March 2024 on harmonised rules on artificial intelligence and amending certain Union legislative acts (Artificial Intelligence Act) // EUR-Lex. (дата обращения: 11.06.2025).
Можно быстро и просто опубликовать свою научную статью в журнале «Молодой Ученый». Сразу предоставляем препринт и справку о публикации.
Опубликовать статью
Ключевые слова
искусственный интеллект
корпоративное управление
юридическая ответственность
алгоритмическое принятие решений
прозрачность ИИ
Молодой учёный №24 (575) июнь 2025 г.
Скачать часть журнала с этой статьей(стр. 313-314):
Часть 5 (стр. 299-371)
Расположение в файле:
стр. 299стр. 313-314стр. 371

Молодой учёный