Искусственный интеллект в рабочей среде: какие технологии запрещены, какие риски несет работодатель и где пределы допустимого

Компании всё чаще внедряют ИИ-инструменты в сферу управления персоналом: системы автоматического отбора кандидатов, алгоритмы оценки продуктивности, прогнозирования текучести, анализа поведения сотрудников и распределения задач на основе индивидуальных характеристик.

Такие решения обещают объективность и эффективность, однако в европейском правовом поле их применение напрямую затрагивает требования EU AI Act и GDPR, которые определяют границы допустимой обработки персональных данных. В ходе рабочего процесса затрагиваются права работников, что усиливает важность регулирования.

Если компания использует инструменты, которые автоматически анализируют цифровую активность сотрудников, выполнение задач или коммуникацию, такие процессы с высокой вероятностью будут квалифицированы как профилирование. А значит, включаются специальные правовые механизмы защиты.

Запрет на распознавание эмоций в рабочей среде

Одним из наиболее жестких положений EU AI Act является запрет на использование систем распознавания эмоций в рабочей среде и образовательных учреждениях. Статья 5(1)(f) прямо запрещает размещение на рынке, ввод в эксплуатацию и использование ИИ-систем, предназначенных для выявления эмоционального состояния человека в этих контекстах. Исключение предусмотрено лишь для медицинских или связанных с безопасностью целей.

Этот запрет основан на нескольких принципиальных соображениях. 

  1. Существует высокий риск манипуляции и дискриминации. Если работодатель получает инструмент, который определяет «лояльность», «стрессоустойчивость» или «вовлеченность» сотрудника на основе мимики или интонации, это открывает пространство для субъективных и потенциально предвзятых решений. 
  2. Научная достоверность подобных технологий остается спорной: распознавание эмоций строится на вероятностных моделях и не гарантирует объективной интерпретации внутреннего состояния человека. 
  3. Анализ мимики и голоса в рабочем процессе представляет собой серьезное вмешательство в частную жизнь, особенно с учетом иерархической зависимости работника от работодателя.

Для работодателей этот запрет означает, что использование технологий анализа эмоций сотрудников (например, во время видеозвонков или интервью) в большинстве случаев будет незаконным. Наличие согласия работника или иного правового основания по GDPR в данном случае значения не имеет – запрет действует независимо от этого. 

Системы высокого риска в сфере занятости

Помимо абсолютных запретов, EU AI Act вводит категорию систем высокого риска. В соответствии со статьей 6 и Приложением III к регламенту, к таким системам относятся ИИ-инструменты, применяемые для принятия решений о трудовых отношениях, продвижении или увольнении, распределении задач на основе личных характеристик, а также для мониторинга и оценки поведения и производительности работников.

Если система осуществляет профилирование – то есть автоматизированную обработку данных с целью оценки различных аспектов личности, включая надежность, эффективность или поведение, – она автоматически подпадает под режим высокого риска.

Это означает, что ее разработчик и поставщик обязаны внедрить систему управления рисками, обеспечить качество данных, подготовить техническую документацию, предусмотреть механизмы прозрачности и человеческого надзора, гарантировать кибербезопасность и зарегистрировать систему в европейской базе данных. Работодатель, использующий такую систему, также несет самостоятельные обязанности по корректному внедрению и контролю.

На практике большинство HR-инструментов, используемых для найма, оценки производительности или мониторинга сотрудников, могут быть признаны системами высокого риска по EU AI Act.

Автоматизированные решения в HR: ограничения статьи 22 GDPR

Параллельно действует статья 22 GDPR, закрепляющая право лица не быть объектом решения, основанного исключительно на автоматизированной обработке, если оно имеет юридические последствия или иным образом существенно затрагивает человека. 

Если ИИ автоматически формирует рейтинг сотрудников, оценивает их производительность или генерирует рекомендации об увольнении и повышении, а человек лишь формально утверждает результат без реальной проверки, такое решение может быть признано полностью автоматизированным.

В этом случае использование системы возможно только при обеспечении реального участия человека в принятии решения и наличии одного из специальных оснований GDPR: необходимости для исполнения договора, прямого законодательного разрешения либо явного согласия работника.

Однако в трудовых отношениях применение этих исключений крайне ограничено и требует строгой интерпретации.

Так, например, рассмотрим три сценария записи рабочих видеозвонков. 

  • В первом случае речь идет о простой записи без использования ИИ. При корректной оценке баланса интересов и обеспечении прозрачности такая обработка может быть допустимой. Желательно проведение оценки воздействия на защиту данных (DPIA).
  • Во втором случае запись используется совместно с ИИ для анализа производительности, но без распознавания эмоций. Тогда система может быть квалифицирована как высокорисковая по EU AI Act, а работодатель обязан обеспечить человеческий надзор и соблюдение требований статьи 22 GDPR.
  • В третьем случае запись дополняется анализом эмоций сотрудников. Если цель – оценка работника, такое использование подпадает под прямой запрет статьи 5(1)(f) EU AI Act и не может быть легализовано ни легитимным интересом, ни согласием.

Если ваша компания использует AI-инструменты для рекрутинга, оценки производительности или мониторинга сотрудников, REVERA рекомендует провести юридическую проверку их соответствия EU AI Act и GDPR до внедрения или масштабирования.

 

Авторы: Людмила Епихова, Артем Хандрико.

Напишите нашему юристу, чтобы узнать подробности

Написать юристу