Европейская комиссия рассматривает меры по введению временного запрета на технологии распознавания лиц, используемые как государственными, так и частными субъектами, согласно проекту белой книги по искусственному интеллекту полученный EURACTIV.
Если эти планы будут реализованы, в некоторых странах ЕС, в том числе Германии хотите развернуть автоматическое распознавание лиц на 134 железнодорожных станциях и в 14 аэропортах. Франция также планирует создать правовую базу, позволяющую интегрировать системы видеонаблюдения с технологии распознавания лиц.
В документе Комиссии, который дает представление о предложениях по европейскому подходу к искусственному интеллекту, говорится, что будущая нормативно-правовая база может «включать ограниченный по времени запрет на использование технологии распознавания лиц в общественных местах».
В документе добавляется, что «использование технологии распознавания лиц частными или государственными субъектами в общественных местах будет запрещено в течение определенного периода (например, 3–5 лет), в течение которого существует разумная методология оценки воздействия этой технологии и возможных мер по управлению рисками. может быть идентифицирован и разработан ».
Пять Нормативных Вариантов для ИИ
В более общем плане, проект Белой книги, завершенную версию которой Комиссия должна опубликовать к концу февраля, содержит пять вариантов регулирования для искусственного интеллекта по всему блоку.
Различные регулирующие ветви, рассматриваемые Комиссией в документе:
- Добровольная маркировка
- Отраслевые требования к государственному управлению и распознаванию лиц
- Обязательные требования к риску для приложений с высоким риском
- Безопасность и ответственность
- Управление
Система добровольной маркировки могла бы состоять из правового инструмента, в соответствии с которым разработчики могли бы «на добровольной основе выполнить требования к этическому и заслуживающему доверия искусственному интеллекту». Если соблюдение в этой области гарантировано, то это «ярлык» этического или заслуживающего доверия искусственного интеллекта. интеллект будет предоставлен, с обязательными условиями.
Вариант два фокусируется на конкретной области, вызывающей озабоченность общества - использовании искусственного интеллекта государственными органами, а также на использовании технологий распознавания лиц в целом. В первой области в документе говорится, что ЕС мог бы принять подход, аналогичный позиции Канады в ее Директиве об автоматизированном принятии решений, которая устанавливает минимальные стандарты для правительственных ведомств, желающих использовать автоматизированную систему принятия решений.
Что касается распознавания лиц, то в документе Комиссии подчеркиваются положения Общего регламента ЕС о защите данных, которые дают гражданам «право не быть субъектом решения, основанного исключительно на автоматизированной обработке, включая профилирование».