EC достиг предварительного соглашения по «закону об искусственном интеллекте»

В прошлую пятницу 9 декабря 2023 года Европарламент пришёл к предварительному соглашению по Регламенту об установлении гармонизированных правил в области искусственного интеллекта (далее – AI Act), так называемому «Закону об искусственном интеллекте». AI Act содержит положения, направленные на регулирование разработки ИИ и обеспечения его ответственного, этичного и безопасного использования. 

Акцентируем внимание, что AI Act на текущий момент ещё не принят и должен пройти формальную процедуру одобрения. Так как AI Act является Регламентом, то его действие будет распространяться на все страны-члены ЕС без необходимости отдельной имплементации через принятие соответствующего закона каждой из стран.

Проект AI Act  в первой редакции опубликован ещё в апреле 2021 года, то есть ещё до бума генеративного искусственного интеллекта (GenAI) 2023 года. 

Помимо AI Act в ЕС рассматривается также проект AI Liability Directive, призванной урегулировать вопросы ответственности владельцев AI-продуктов в случае причинения ущерба пользователям.

Кратко основные положения AI Act, по которым было достигнуто согласие:

Классификация ИИ-систем по уровню риска

AI Act классифицирует системы искусственного интеллекта по критерию уровня риска на три уровня: 

  • запрещенные ИИ-программы, создающие недопустимый риск (о них ниже);
  • ИИ программы с высоким уровнем риска, к примеру, в сфере медицины, транспорта, рекрутинга;
  • ИИ программы с низким или минимальным уровнем риска, к примеру, в сфере развлечений.

В зависимости от уровня риска, к которому будет отнесена ИИ-программа, будут различаться требования к их разработке и использованию.

Запрещенные ИИ-программы

AI Act прямо запрещает ИИ-программы, которые могут представлять угрозу основным правам человека. Примерами таких ИИ могут быть программы, манипулирующие человеческим поведением, ИИ для социальной оценки населения, ИИ для сбора информации с камер видеонаблюдения, а также ИИ, классифицирующие людей по «чувствительным» параметрам, например, расе, политическим взглядам и др.

Данные ограничения будут распространяться как на частные компании, так и на государства.

Обязательства прозрачности

Разработчики ИИ должны будут обеспечить прозрачность этих программ путём предоставления подробных руководств и разборов материалов, используемых при обучении данного ИИ. Данное нововведение направлено на усиление доверия пользователей к ИИ-программам.

Применительно к данному положению, интересно, что компания OpenAI, владелец наиболее известного GenAI – ChatGPT – до сих пор отказывается раскрывать сведения об обучении алгоритма, однако, в случае принятия AI Act в текущей редакции, OpenAI обязана будет это сделать.

Дополнительные права граждан

AI Act также предоставляет гражданам дополнительные права, в частности, закрепляется право граждан на подачу жалоб на ИИ-системы и получение разъяснений о решениях ИИ, классифицированных как обладающие высокой степенью риска, которые затрагивают их права.

Защита данных и конфиденциальность

AI Act гарантируют защиту частной жизни граждан, а также уделяет значительное внимание защите персональных данных, в частности, требуют ясного согласия на использование персональных данных граждан и запрещают использование ИИ для массового наблюдения или контроля населения. Данные положения подчеркивают значение защиты данных и конфиденциальности во всех секторах экономики, где используется ИИ.

Как известно, на текущий момент есть сомнения, соответствует ли GenAI программы требованиям GDPR. В частности, если ввести в ChatGPT или Claude 2 информацию, содержащую персональные данные, то эти программы будут использовать далее эту информацию для своего обучения. При этом отсутствует техническая возможность «вывести» эти данные из GenAI, что противоречит положениям GDPR, по которому пользователь всегда вправе отозвать согласие на обработку персональных данных.

Регуляторные ИИ «песочницы»

AI Act предусматривает «песочницы» для ИИ с более гибким регулированием, то есть контролируемые среды для разработки и тестирования систем ИИ в реальных условиях. Цель состоит в том, чтобы облегчить вывод инновационных систем ИИ на рынок посредством более гибкого тестирования.

Ответственность за нарушение Закона

Штрафы за нарушения закона об искусственном интеллекте установлены в процентах от глобального годового оборота компании-нарушителя за предыдущий финансовый год или в заранее определенной сумме, в зависимости от того, что больше. Например, за нарушение регулирования о запрещённых ИИ сумма штрафа может составить 35 миллионов евро или 7% от оборота, а за предоставление неверной информации 7,5 миллионов евро или 1,5% от оборота.

Создание Офиса ЕС по вопросам ИИ (AI Office)

В рамках Еврокомиссии будет создан Офис ЕС по вопросам ИИ (AI Office). Ему будет поручено осуществлять надзор за передовыми моделями ИИ, вносить вклад в развитие стандартов и практики тестирования новых ИИ, а также обеспечивать соблюдение Закона во всех государствах-членах ЕС.

Окончательное соглашение должно быть достигнуто до конца 2023 года. Текст должен быть ратифицирован Европарламентом в начале 2024 года, а вступить в силу закон сможет не ранее 2025-го.

Этот документ может стать первым в мире специальным актом по регулированию искусственного интеллекта и, вероятно, будет воспринят другими странами мира, по аналогии с GDPR. С учетом активного роста AI-generated продуктов на рынке, его влияние будет ощутимым и затронет множество отраслей. 

REVERA law group продолжит держать в курсе событий и писать о последних новостях и обновлениях в сфере ИИ.


Уважаемые журналисты, использование материалов с сайта REVERA в публикациях возможно только после нашего письменного разрешения. 

Для согласования материалов обращайтесь на e-mail: i.antonova@revera.legal или Telegram: https://t.me/PR_revera