Использование ИИ в корпоративном управлении

Искусственный интеллект (ИИ) стал устойчивой частью корпоративного управления. Компании внедряют ИИ в процессы принятия решений, автоматизации и стратегической аналитики. Одновременно регулирование в области ИИ продолжает развиваться, и такие документы, как вступающие в силу требования AI Act в ЕС, усиливают акцент на прозрачности алгоритмов, контроле и ответственности при использовании автоматизированных решений. 

В результате корпоративное управление сталкивается с двойной задачей: извлекать выгоду из возможностей ИИ и одновременно выстраивать систему контроля, которая обеспечивает соблюдение правовых требований и доверие к алгоритмическим решениям.

1. Как компании применяют ИИ в корпоративном управлении

1.1. HR и управление персоналом

ИИ все чаще применяется для автоматизации поиска и оценки кандидатов, анализа эффективности сотрудников, планирования развития персонала и прогнозирования кадровых рисков. Такие системы позволяют ускорять процессы и повышать их объективность, однако одновременно создают правовые вызовы.

Ключевые риски:

  • вероятность дискриминации в результате некорректно обученных моделей;
  • недостаточная прозрачность алгоритмических решений;
  • использование персональных данных без должной правовой базы;
  • нарушение обязанностей работодателя при автоматизации оценки сотрудников.

Некоторые юрисдикции уже устанавливают требования к прозрачности алгоритмов в трудовых отношениях и к порядку уведомления о применении автоматизированных решений в сфере занятости.  

Рекомендации:

  • проводить регулярную проверку моделей на предмет предвзятости;
  • фиксировать критерии и методы, используемые алгоритмами;
  • обеспечить надлежащий контроль со стороны человека при принятии решений;
  • включить алгоритмические процессы HR в локальные нормативные акты1.2. Финансовый контроль и риск менеджмент

Организации используют ИИ для анализа операций, выявления отклонений, поддержки управленческого учета и оценки финансовых рисков. Автоматизация позволяет оперативно выявлять проблемы и принимать решения, однако требует надежных процедур контроля.

Правовое регулирование в области высокорисковых алгоритмов, включая требования AI Act в ЕС, устанавливает обязанности по обеспечению прозрачности, ведению технической документации, логированию и надзору над системами, применяемыми в сферах, влияющих на финансовые интересы организаций и клиентов.  

Рекомендации:
  • фиксировать используемые подходы к обучению и тестированию финансовых моделей;
  • разрабатывать внутренние стандарты проверки корректности алгоритмов;
  • обеспечивать независимый аудит систем, влияющих на ключевые финансовые решения.


1.3. Стратегическое планирование и корпоративная аналитика

ИИ используется для анализа рыночных данных, моделирования бизнес сценариев и формирования стратегических рекомендаций. Такие инструменты помогают руководству принимать решения на основе более глубокого анализа данных.

Однако автоматизация стратегических функций требует повышенного внимания к корпоративному контролю и соответствию регуляторным требованиям. Регуляторы подчеркивают необходимость включения принципов ответственности, прозрачности и этичного использования ИИ в корпоративные процессы управления.

Таким образом, ИИ способен улучшать стратегическое управление, но при условии построения системы контроля, позволяющей отслеживать корректность и обоснованность алгоритмических выводов.

2. Юридические последствия делегирования управленческих функций алгоритмам

2.1. Ответственность органов управления

Автоматизация с применением ИИ не освобождает лиц, участвующих в управлении компанией, от обязанности осуществлять надзор и проверку обоснованности принимаемых решений. Алгоритмы рассматриваются как вспомогательные инструменты, а юридическая ответственность за решения остается у лиц, принимающих их. Руководству необходимо обеспечивать понимание принципов работы систем, на которые оно опирается.

Юридические исследования в области корпоративного управления отмечают необходимость интеграции ИИ в корпоративные процедуры таким образом, чтобы соблюдались принципы добросовестного управления и должной осмотрительности со стороны руководства.  

Рекомендации:
  • закрепить порядок использования ИИ в корпоративных процедурах;
  • обеспечить доступ руководства к информации о принципах работы алгоритмов;
  • отражать факт применения ИИ при подготовке управленческих решений в соответствующих внутренних документах.

2.2. Обязанности по доказуемости и прозрачности решений

Нормативные требования к системам, способным оказывать значительное влияние на решения, последовательно усиливаются.

AI Act и реформы национального законодательства предусматривают для организаций обязанность:

  1. документировать функционирование ИИ систем;
  2. обеспечивать возможность объяснения решений;
  3. сохранять логи для последующего анализа.  

Это затрагивает кадровые решения, финансовые процессы, KYC-процедуры и другие области, где автоматизация может иметь значимые последствия.
 

Рекомендации:
  • внедрить процедуры пересмотра алгоритмических решений;
  • разработать механизм реагирования на инциденты, связанные с некорректной работой ИИ;
  • назначить ответственного за мониторинг работы ИИ‑систем, контроль качества данных и соблюдение установленных процедур.

2.3. Риск отсутствия централизованного управления ИИ внутри организации

На практике нередко возникает ситуация, когда функции управления ИИ распределены между несколькими подразделениями – IT, юридическим отделом, безопасностью, аналитикой. Это может приводить к отсутствию единого подхода и недостаточному контролю.

Исследования governance подходов подчеркивают необходимость централизованного управления ИИ, включающего единые принципы, процедуры и распределение ответственности.  

Таким образом, оптимальным решением является создание внутреннего механизма координации или отдельной структуры, отвечающей за вопросы этики, прозрачности, комплаенса и аудита ИИ.

3. Прозрачность и объяснимость решений ИИ

3.1. Значение прозрачности в современном регулировании

Уровень доверия к алгоритмам напрямую зависит от их объяснимости. Регуляторы уделяют особое внимание обеспечению прозрачности и документированности решений, особенно в системах, которые могут повлиять на права, обязанности или значимые интересы физических и юридических лиц.

Несмотря на технологические сложности, прозрачность становится нормативной обязанностью в условиях усиления требований AI Act и национальных законодательств.

3.2. Практические элементы обеспечения объяснимости

Для обеспечения надлежащего уровня объяснимости организации должны:

  1. описывать логику работы моделей;
  2. документировать источники данных и методы их обработки;
  3. формировать внутренние отчеты о работе систем;
  4. обеспечивать корректность и регулярное обновление документации.
Рекомендации:
  • использовать признанные международные подходы к документированию ИИ‑систем, включая структурированные описания моделей и наборов данных (датасетов), которые применяются в отрасли для повышения прозрачности и ответственности;
  • внедрить механизмы обратной связи и пересмотра решений;
  • обеспечить доступ сотрудников и клиентов к информации о применении ИИ.


Таким образом, компании могут эффективно использовать ИИ в корпоративном управлении, если одновременно обеспечивают прозрачность алгоритмов, контроль за их работой и соблюдение требований регулирования, включая нормы AI Act, направленные на повышение ответственности и объяснимости автоматизированных решений.

Авторы: Дарья Гордей, Артем Хандрико.

 

Напишите нашему юристу, чтобы узнать подробности

Написать юристу