Утечка: ЕС рассматривает 5-летний запрет на признание лица

Признание лица
Пожалуйста, поделитесь этой историей!
Хотя ЕС в значительной степени является технократией, это предложение о 5-летнем запрете на использование искусственного интеллекта в распознавании лиц призвано дать регулирующим органам больше времени, чтобы «сформировать способ его развития». Это потенциально может сделать скачок в технологиях в Китае и США Редактор TN

Европейская комиссия рассматривает меры по введению временного запрета на технологии распознавания лиц, используемые как государственными, так и частными субъектами, согласно проекту белой книги по искусственному интеллекту полученный EURACTIV.

Если эти планы будут реализованы, в некоторых странах ЕС, в том числе Германии хотите развернуть автоматическое распознавание лиц на 134 железнодорожных станциях и в 14 аэропортах. Франция также планирует создать правовую базу, позволяющую интегрировать системы видеонаблюдения с технологии распознавания лиц.

В документе Комиссии, который дает представление о предложениях по европейскому подходу к искусственному интеллекту, говорится, что будущая нормативно-правовая база может «включать ограниченный по времени запрет на использование технологии распознавания лиц в общественных местах».

В документе добавляется, что «использование технологии распознавания лиц частными или государственными субъектами в общественных местах будет запрещено в течение определенного периода (например, 3–5 лет), в течение которого существует разумная методология оценки воздействия этой технологии и возможных мер по управлению рисками. может быть идентифицирован и разработан ».

Пять Нормативных Вариантов для ИИ

В более общем плане, проект Белой книги, завершенную версию которой Комиссия должна опубликовать к концу февраля, содержит пять вариантов регулирования для искусственного интеллекта по всему блоку.

Различные регулирующие ветви, рассматриваемые Комиссией в документе:

  • Добровольная маркировка
  • Отраслевые требования к государственному управлению и распознаванию лиц
  • Обязательные требования к риску для приложений с высоким риском
  • Безопасность и ответственность
  • Управление

Система добровольной маркировки могла бы состоять из правового инструмента, в соответствии с которым разработчики могли бы «на добровольной основе выполнить требования к этическому и заслуживающему доверия искусственному интеллекту». Если соблюдение в этой области гарантировано, то это «ярлык» этического или заслуживающего доверия искусственного интеллекта. интеллект будет предоставлен, с обязательными условиями.

Вариант два фокусируется на конкретной области, вызывающей озабоченность общества - использовании искусственного интеллекта государственными органами, а также на использовании технологий распознавания лиц в целом. В первой области в документе говорится, что ЕС мог бы принять подход, аналогичный позиции Канады в ее Директиве об автоматизированном принятии решений, которая устанавливает минимальные стандарты для правительственных ведомств, желающих использовать автоматизированную систему принятия решений.

Что касается распознавания лиц, то в документе Комиссии подчеркиваются положения Общего регламента ЕС о защите данных, которые дают гражданам «право не быть субъектом решения, основанного исключительно на автоматизированной обработке, включая профилирование».

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

2 Комментарии
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии