Ответственный эксперимент

Цена автоматизированной ошибки при использовании AI в корпоративном управлении

Искусственный интеллект все увереннее входит в залы заседаний советов директоров — как аналитик и советник, а где-то уже и как формальный участник голосования. Но вместе с цифровыми ассистентами в корпоративное управление приходит новая зона риска: если алгоритм ошибается, кто заплатит за его просчет? Партнер судебно-арбитражной практики АБ ЕПАМ Вера Рихтерман напоминает о старом принципе: управленческая власть неотделима от персональной ответственности.

Вера Рихтерман

Вера Рихтерман

Фото: АБ ЕПАМ

Вера Рихтерман

Фото: АБ ЕПАМ

Сегодня использование искусственного интеллекта (далее — AI) в работе становится повседневной реальностью: сотни компаний и сотрудников по всему миру при решении стоящих перед ними задач прибегают к помощи виртуальных ассистентов. Стандартной практикой стало и использование AI при управлении компаниями, в том числе на уровне совета директоров. Но можно ли возложить на искусственный интеллект обязанности самостоятельного члена коллегиального органа управления с правом голоса и кто будет нести ответственность за допущенные ошибки?

В большинстве компаний AI используется исключительно как инструмент поддержки при принятии решений: в Salesforce система Einstein предоставляет аналитические комментарии без управленческих полномочий, а в JPMorgan Chase и BlackRock алгоритмы применяются для анализа рисков и моделирования последствий решений, не подменяя собой ответственность органов управления. Аналогичный подход складывается и в России, где Сбербанк и X5 Group используют AI для аналитики, но не как носителя управленческих полномочий.

Однако известны попытки перейти эту грань. Например, в 2014 году гонконгский венчурный фонд Deep Knowledge Ventures включил алгоритм VITAL в состав совета директоров с правом голоса, мотивируя это его вкладом в предотвращение банкротства компании. А в 2025 году Фонд национального благосостояния «Самрук-Казына» в Казахстане ввел в совет директоров нейросеть SKAI, наделив ее правом голоса и возможностью оспаривать решения менеджмента. Пока это в большей степени технологические эксперименты, чем правовая революция, но дискуссию можно считать открытой.

На текущий момент действующее законодательство исходит из фундаментального принципа корпоративного права, действующего как в РФ, так и в иностранных юрисдикциях: членом органа управления должно быть физическое лицо, в котором неразрывно связаны управленческая власть и персональная ответственность.

В основе персональной ответственности лежат принципы разумности и добросовестности: директор обязан не только формально получить информацию, но и критически оценить ее. Использование AI-инструментов или высокопрофильных консультантов не освобождает директора от обязанности понимать логику выводов и критически оценивать решения, предлагаемые алгоритмами или представленные в отчетах.

Сегодня мы видим, что алгоритмы могут выступать частью повседневного процесса управления, но при этом не быть самостоятельным субъектом гражданских правоотношений: ответственность за решения, принимаемые с их использованием, остается на конечных пользователях, на которых возложены фидуциарные обязанности действовать при управлении компанией добросовестно и разумно, проявляя должную осмотрительность.

В процессе принятия сложных решений члены органов управления могут не только воспользоваться помощью AI, но и обратиться за советом к профильным консультантам. Такие консультации в письменном виде — один из путей снижения рисков персональной ответственности, поскольку в этом случае возможно проследить логику и обосновать сделанный вывод. Но судебная практика еще раз подчеркивает: руководитель должен действовать самостоятельно и критически относиться к заключениям специалистов.

Принцип персональной ответственности подтверждает и сложившаяся судебная практика. В деле №А33-453/2015 контролирующие должника лица ссылались на отчет оценщика, на основании которого была определена стоимость земельного актива. Суд отверг эти доводы, указав, что цена в отчете была занижена почти на 90% по сравнению с аналогичными объектами, и обосновав свое решение тем, что они должны были внимательно ознакомиться с отчетом и выяснить причины необоснованного снижения цены исследуемого объекта. Отсюда возникает следующий актуальный вопрос: можно ли переложить ответственность за неэффективное решение, принятое на основании совета или отчета, на лицо, давшее такую консультацию, в том числе на AI?

Еще в 2019 году крупный банк в деле №А40-227621/2019 пытался взыскать многомиллиардные убытки с консалтинговой фирмы — та подготовила ненадлежащий отчет о перспективах угольного разреза, который должен был лечь в основу последующего решения о кредитовании владеющей им компании. Суды всех инстанций отказали в удовлетворении требований: отчет консультанта не являлся единственным основанием для решения о выдаче кредита, а банк имел собственные механизмы для проверки заемщика.

Но в 2024 году Верховный суд сформулировал новую позицию, допустив взыскание убытков за услуги, некачественно оказанные высокопрофессиональными консультантами (определение ВС РФ №305-ЭС23-18507 от 13.02.2024). Суд указал, что консультант должен отвечать перед заказчиком за полезность своих действий, и подчеркнул, что консультанты не могут в свою защиту ссылаться на оговорки об ограничении ответственности, если их работа оказалась столь непрофессиональна, что лишила смысла заключение договора для заказчика.

Возможно ли применение подобной ответственности к AI, если его советы оказываются неэффективными и приводят к убыткам? Вряд ли, ведь в соответствии с российским законодательством AI не обладает правосубъектностью. Можно предположить попытки перекладывания ответственности на разработчиков AI-агентов, но и тут перспективы удовлетворения подобных требований остаются туманными.

По сути, сегодня AI занимает промежуточное положение между инструментом и консультантом, но без статуса субъекта права. Это создает своеобразный правовой вакуум: высокий уровень доверия к выводам алгоритма при отсутствии адресата ответственности. В условиях активного использования AI ключевым вопросом становится не отказ от алгоритмов, а выстраивание процедур их использования, то есть фиксация роли AI как источника информации, документирование логики принятия решений и сохранение критического человеческого суждения. Именно это, а вовсе не погоня за технологическими новшествами остается главным инструментом защиты директоров от персональной ответственности. Что, однако, не исключает в будущем законодательного переосмысления роли AI по аналогии с уже идущими дискуссиями о регулировании автономных систем и ответственности за алгоритмические решения.