Статья посвящена правовым рискам применения искусственного интеллекта при управлении корпоративными структурами. Рассматриваются вопросы ответственности, деликтов, корпоративных споров и непрозрачности алгоритмов. Приводится анализ российского законодательства и зарубежных подходов.
Ключевые слова: искусственный интеллект, корпоративное управление, юридическая ответственность, алгоритмическое принятие решений, прозрачность ИИ.
Использование технологий искусственного интеллекта (ИИ) в корпоративном управлении способно повысить эффективность управленческих решений, однако сопряжено с юридическими рисками. Правовое регулирование применения ИИ при принятии решений в организациях в Российской Федерации пока находится на начальном этапе. В 2020 году понятие ИИ впервые закреплено законодательно в рамках экспериментального правового режима в г. Москве [1], но данный акт не решил вопрос об ответственности в случае сбоев или ошибок работы алгоритмов. Таким образом, компании вынуждены опираться на общие нормы гражданского и корпоративного права, которые не учитывают всех специфических особенностей ИИ.
Российское законодательство возлагает на руководителей организаций обязанность действовать в интересах компании добросовестно и разумно. Статья 53.1 Гражданского кодекса РФ предусматривает, что лицо, уполномоченное выступать от имени юридического лица, обязано возместить убытки, причинённые по его вине, если будет доказано, что при осуществлении своих прав и исполнении обязанностей оно действовало недобросовестно или неразумно [2]. Аналогично, ст. 71 Федерального закона от 26.12.1995 № 208-ФЗ «Об акционерных обществах» обязывает членов органов управления действовать добросовестно и разумно и устанавливает их ответственность перед обществом за убытки, причиненные виновными действиями [3]. Следование рекомендациям ИИ не освобождает менеджмент от этих обязанностей. Напротив, слепое доверие к непрозрачному алгоритму может расцениваться как небрежность, то есть нарушение стандарта разумности действий управленца.
Второй риск связан с возможным причинением вреда третьим лицам вследствие решений, принятых с участием ИИ. По общему правилу (ст. 1064 ГК РФ) вред, причинённый личности или имуществу гражданина либо организации, подлежит возмещению в полном объёме лицом, его причинившим [2]. Таким образом, если алгоритм, задействованный в управлении, приводит к ошибочным действиям и наносит ущерб контрагентам или потребителям, ответственность перед потерпевшими понесёт сама компания как сторона, от имени которой действовал ИИ. Более того, использование ИИ в отдельных случаях может быть квалифицировано как деятельность, создающая повышенную опасность для окружающих, что влечёт ответственность организации независимо от вины [2, ст. 1079]. Специальные же нормы о возмещении вреда, причинённого ИИ, в российском законодательстве отсутствуют, вследствие чего остаётся неопределённым распределение ответственности между разработчиками алгоритмов и их пользователями.
Применение ИИ в управленческих решениях способно спровоцировать корпоративные конфликты. Акционеры или участники могут оспаривать решения органов управления, принятые в основном на основе рекомендаций алгоритма, особенно если такие решения повлекли убытки для общества или ущемление прав миноритариев. Возникает вопрос о действительности таких решений и сделок. Если будет установлено, что руководители фактически не осуществили самостоятельной бизнес-оценки, а бездумно следовали выводам программы, такие решения могут быть признаны недействительными. Например, совершение крупной сделки без надлежащего одобрения, основываясь только на советах ИИ, может рассматриваться как нарушение установленного порядка и превышение полномочий органа. В соответствии с ГК РФ, сделка, совершенная с превышением полномочий, может быть признана недействительной, если контрагент знал или должен был знать о таком превышении [2, ст. 174]. Следовательно, чрезмерная автономия алгоритмов без контроля со стороны уполномоченных лиц несет риск оспаривания сделок и управленческих актов внутри компании.
«Черный ящик» ИИ представляет отдельный юридический риск. Непрозрачность алгоритмов затрудняет оценку обоснованности и правомерности принимаемых решений. Руководство компании может оказаться не в состоянии объяснить мотивы решения, что усложняет как внутренний аудит, так и судебное разбирательство при возникновении спора. В отсутствие объяснимости алгоритма менеджерам сложнее доказать, что они действовали разумно и добросовестно. Зарубежный опыт показывает, что данная проблема осознается регуляторами: в Европейском союзе «право на объяснение» результатов работы высокорисковых алгоритмических систем планируется закрепить законодательно. Если же решения ИИ непрозрачны для проверяющих органов и инвесторов, это может повлечь дополнительные претензии и санкции к компании.
Для иллюстрации следует отметить, что в международной практике вырабатываются подходы к регулированию обозначенных рисков. Европейский союз разрабатывает комплексный нормативный акт об ИИ — Регламент (ЕС) 2024/1689, который системно регулирует использование ИИ и устанавливает обязательные требования по управлению рисками и прозрачности алгоритмов [4]. В США пока отсутствует единый закон об ИИ, и вопросы ответственности решаются посредством общих норм и саморегулирования. Например, в г. Нью-Йорк вступил в силу местный закон, запрещающий компаниям использовать автоматизированные системы для найма персонала без предварительного аудита на отсутствие дискриминации.
Таким образом, использование ИИ при принятии управленческих решений в корпоративных структурах влечёт комплекс юридических рисков, связанных с ответственностью, деликтными обязательствами, корпоративными спорами и неопределённостью правового статуса алгоритмов. В настоящее время специальные нормы для ИИ отсутствуют, и применяются общие положения гражданского и корпоративного права. Развитие правового регулирования в этой сфере представляется необходимым. Перспективными направлениями совершенствования законодательства являются: введение специальных правил ответственности за вред, причинённый ИИ (включая распределение рисков между разработчиком и пользователем алгоритма), закрепление требований к прозрачности и объяснимости используемых в корпоративном управлении алгоритмов, а также уточнение статуса и юридической силы решений, принимаемых с участием ИИ, в нормах о корпоративном управлении. С учётом зарубежного опыта, российский законодатель может заблаговременно выработать подходы, обеспечивающие баланс между инновационным развитием и защитой прав участников корпоративных отношений и третьих лиц.
Литература:
- Федеральный закон от 24.04.2020 № 123-ФЗ «О проведении эксперимента по установлению специального регулирования технологий искусственного интеллекта в городе Москве». — Доступ из СПС «КонсультантПлюс». — Текст: электронный.
- Гражданский кодекс Российской Федерации (часть первая от 30.11.1994 № 51-ФЗ, часть вторая от 26.01.1996 № 14-ФЗ) (ред. от 31.10.2024).– Доступ из СПС «КонсультантПлюс». — Текст: электронный.
- Федеральный закон от 26.12.1995 № 208-ФЗ «Об акционерных обществах» (ред. от 30.11.2024). — Доступ из СПС «КонсультантПлюс». — Текст: электронный.
- Regulation (EU) 2024/1689 of the European Parliament and of the Council of 13 March 2024 on harmonised rules on artificial intelligence and amending certain Union legislative acts (Artificial Intelligence Act) // EUR-Lex. (дата обращения: 11.06.2025).