Регламент ЕC об Искусственном Интеллекте

Регламент Европейского союза об Искусственном Интеллекте (также Закон об искусственном интеллекте или Закон об ИИ) — это регламент Европейского союза, касающийся искусственного интеллекта (ИИ). Он устанавливает общую нормативно-правовую базу для ИИ в Европейском союзе (ЕС). Он вступает в силу 1 августа 2024 года, а его положения вступают в силу постепенно в течение следующих 6–36 месяцев.

Положения

Категории риска

Существуют различные категории риска в зависимости от типа приложения, при этом конкретная категория посвящена универсальному генеративному ИИ:

  • Неприемлемый риск — приложения ИИ в этой категории запрещены, за исключением определенных исключений. Если исключения не применяются, это включает приложения ИИ, которые манипулируют поведением человека, те, которые используют удаленную биометрическую идентификацию в реальном времени (например, распознавание лиц) в общественных местах, и те, которые используются для социального скоринга (ранжирования людей на основе их личных характеристик, социально-экономического статуса или поведения).
  • Высокий риск — приложения ИИ, которые, как ожидается, будут представлять значительную угрозу здоровью, безопасности или основным правам людей. В частности, системы ИИ, используемые в здравоохранении, образовании, подборе персонала, управлении критической инфраструктурой, правоохранительных органах или правосудии. Они подлежат обязательствам по качеству, прозрачности, человеческому надзору и безопасности, а в некоторых случаях требуют «Оценки воздействия на основные права» перед развертыванием. Они должны проходить оценку как до их размещения на рынке, так и на протяжении всего их жизненного цикла. Список приложений с высоким риском может быть расширен со временем, без необходимости вносить изменения в сам Закон об ИИ.
  • Универсальный ИИ — эта категория, добавленная в 2023 году, включает в себя, в частности, базовые модели, такие как ChatGPT. Они подчиняются требованиям прозрачности. Высокоэффективные системы ИИ общего назначения, которые могут представлять системные риски (особенно те, которые обучены с использованием вычислительной мощности, превышающей 1025 FLOPS), также должны пройти тщательную процедуру оценки.
  • Ограниченный риск — системы ИИ в этой категории имеют обязательства по прозрачности, гарантируя, что пользователи информируются о том, что они взаимодействуют с системой ИИ, и позволяя им делать осознанный выбор. В эту категорию входят, например, приложения ИИ, которые позволяют генерировать или манипулировать изображениями, звуком или видео (например, deepfakes). В этой категории бесплатные модели с открытым исходным кодом (т. е. параметры которых общедоступны) не регулируются, за некоторыми исключениями.
  • Минимальный риск — в эту категорию входят, например, системы ИИ, используемые для видеоигр или спам-фильтров. Большинство приложений ИИ, как ожидается, попадут в эту категорию. Эти системы не регулируются, и государства-члены не могут вводить дополнительные правила из-за правил максимальной гармонизации. Существующие национальные законы, касающиеся разработки или использования таких систем, переопределяются. Однако предлагается добровольный кодекс поведения.

Исключения

Статьи 2.3 и 2.6 исключают системы ИИ, используемые в военных целях или целях национальной безопасности или в чисто научных исследованиях и разработках, из Закона об ИИ.

Статья 5.2 запрещает алгоритмическое видеонаблюдение только в том случае, если оно ведется в режиме реального времени. Исключения, разрешающие алгоритмическое видеонаблюдение в режиме реального времени, включают цели охраны порядка, включая «реальную и существующую или реальную и предсказуемую угрозу террористической атаки».

В пункте 31 декларативной части закона говорится, что он направлен на запрет «систем искусственного интеллекта, предоставляющих социальную оценку физическим лицам государственными или частными субъектами», но допускает «законную практику оценки физических лиц, которая осуществляется для определенной цели в соответствии с законодательством Союза и национальным законодательством». La Quadrature du Net интерпретирует это исключение как разрешение систем социальной оценки, специфичных для сектора, таких как оценка подозрительности, используемая французским агентством семейных выплат Caisse d’allocations familiales.

Управление

Регламент об ИИ устанавливает различные новые органы в статье 64 и следующих статьях. Этим органам поручено внедрение и обеспечение соблюдения Закона. Подход сочетает координацию на уровне ЕС с национальным внедрением, вовлекая как государственные органы, так и участие частного сектора.

Будут созданы следующие новые органы:

  1. Управление ИИ: прикрепленное к Европейской комиссии, это учреждение будет координировать внедрение Закона об ИИ во всех государствах-членах и контролировать соблюдение поставщиками ИИ общего назначения.
  2. Европейский совет по искусственному интеллекту: состоящий из одного представителя от каждого государства-члена, Совет будет консультировать и помогать Комиссии и государствам-членам в содействии последовательному и эффективному применению Закона об ИИ. В его задачи входит сбор и обмен технической и нормативной экспертизой, предоставление рекомендаций, письменных заключений и других советов.
  3. Консультативный форум: созданный для консультирования и предоставления технической экспертизы Совету и Комиссии, этот форум будет представлять сбалансированный выбор заинтересованных сторон, включая промышленность, стартапы, малые и средние предприятия, гражданское общество и академические круги, гарантируя, что в процессе внедрения и применения будет представлен широкий спектр мнений.
  4. Научная группа независимых экспертов: эта группа будет предоставлять технические консультации и информацию Управлению по искусственному интеллекту и национальным органам власти, обеспечивать соблюдение правил для моделей искусственного интеллекта общего назначения (в частности, путем запуска квалифицированных оповещений о возможных рисках для Управления по искусственному интеллекту) и гарантировать, что правила и реализация Закона об искусственном интеллекте соответствуют последним научным открытиям.

Хотя на уровне ЕС планируется создание новых органов, государствам-членам необходимо будет назначить «национальные компетентные органы». Эти органы будут отвечать за обеспечение применения и реализации Закона об искусственном интеллекте и за проведение «надзора за рынком». Они будут проверять, соответствуют ли системы искусственного интеллекта правилам, в частности, путем проверки надлежащего выполнения оценок соответствия и назначения третьих лиц для проведения внешних оценок соответствия.

Исполнение

Закон регулирует выход на внутренний рынок ЕС с использованием Новой законодательной базы. Он содержит основные требования, которым должны соответствовать все системы искусственного интеллекта для доступа на рынок ЕС. Эти основные требования передаются в Европейские организации по стандартизации, которые разрабатывают технические стандарты, которые более подробно детализируют эти требования.

Закон обязывает государства-члены создавать собственные уведомляющие органы. Оценки соответствия проводятся для проверки соответствия систем ИИ стандартам, изложенным в Законе об ИИ. Эта оценка может быть выполнена двумя способами: либо путем самооценки, когда поставщик системы ИИ проверяет соответствие, либо путем оценки соответствия третьей стороной, когда оценку проводит уведомляющий орган. Уведомляющие органы также имеют полномочия проводить аудиты для обеспечения надлежащей оценки соответствия.

Возникла критика в отношении того факта, что многие системы ИИ с высоким уровнем риска не требуют оценки соответствия третьей стороной. Некоторые комментаторы утверждают, что независимые оценки третьей стороной необходимы для систем ИИ с высоким уровнем риска для обеспечения безопасности перед развертыванием. Юристы предположили, что системы ИИ, способные генерировать дипфейки для политической дезинформации или создавать несогласованные интимные изображения, следует классифицировать как высокорисковые и подвергать более строгому регулированию.


Источник: