Независимая экспертная группа, которой поручено консультировать Европейская комиссия чтобы проинформировать о своем регулирующем ответе на искусственный интеллект - чтобы поддержать заявленную цель законодателей ЕС по обеспечению того, чтобы развитие ИИ было «ориентировано на человека», - опубликовал свои политические и инвестиционные рекомендации.
Это соответствует более ранним руководящим принципам этики для «заслуживающего доверия ИИ», выпущенным Группой экспертов высокого уровня (HLEG) по ИИ еще в апрель, когда комиссия также призвала участников проверить проект правил.
Полные рекомендации AI HLEG по политике включают в себя подробный 50-страничный документ, который можно скачать по этой ссылке. веб-страница, группа, созданная в июне 2018 года, состоит из объединяет отраслевых экспертов в области искусственного интеллекта, представителей гражданского общества, политических советников и политиков, ученых и экспертов в области права.
Документ содержит предупреждения об использовании ИИ для массового наблюдения и оценки граждан ЕС, например: Система социального кредитования в Китаес группой, призывающей к прямому запрету «Массового подсчета людей с помощью AI». Он также настоятельно призывает правительства взять на себя обязательство не заниматься общим надзором за населением в целях национальной безопасности. (Так что, возможно, это также хорошо, что Великобритания проголосовала за выход из ЕС, учитывая колеблющиеся государственные полномочия по надзору он вступил в силу в конце 2016 года.)
«Хотя у правительств может возникнуть сильный соблазн« обезопасить общество »путем создания всеобъемлющей системы наблюдения на основе систем искусственного интеллекта, это будет чрезвычайно опасно, если его довести до крайних уровней», - пишет HLEG. «Правительства должны взять на себя обязательство не участвовать в массовом надзоре за отдельными лицами, а также развертывать и закупать только надежные системы искусственного интеллекта, разработанные с уважением закона и основных прав, согласованные с этическими принципами и социально-технически устойчивые».
Группа также призывает к «противодействию» коммерческому надзору за отдельными лицами и обществами - предлагая, чтобы реакция ЕС на потенциальную возможность и вероятность злоупотребления технологиями искусственного интеллекта должна включать обеспечение того, чтобы онлайн-отслеживание людей «строго соответствовало основным правам, таким как конфиденциальность» », В том числе (группа указывает), когда речь идет о« бесплатных »услугах (хотя и с небольшим предостережением о необходимости учитывать, как это влияет на бизнес-модели).
На прошлой неделе британский сторожевой механизм защиты данных предпринял еще более конкретный удар по поклонам индустрии онлайн-поведенческой рекламы - предупредив, что Adtech массово обрабатывает личные данные пользователей Интернета для таргетинга объявлений. не соответствует стандартам конфиденциальности ЕС. Промышленности сказали, что ее практика нарушения прав должна измениться, даже если Управление комиссара по информации еще не собирается ломать молоток. Но предупреждение о реформе было ясным.
В то время как директивные органы ЕС работают над созданием уважающей права нормативной базы для ИИ, стремясь управлять в следующие десять лет + передовыми технологическими разработками в регионе, более широкое внимание и тщательное изучение цифровых практик и бизнес-моделей, похоже, будут стимулировать устранение проблемных цифровых практик, которые до настоящего времени могли распространяться в условиях отсутствия или очень легкого регулирования прикосновений.
ГЭВУ также призывает поддержать разработку механизмов для защиты личных данных и для того, чтобы отдельные лица «контролировали свои данные и получали от них полномочия», что, по их мнению, будет касаться «некоторых аспектов требований ИИ, заслуживающего доверия».
«Должны быть разработаны инструменты для обеспечения технологической реализации GDPR и развития сохранения / конфиденциальности конфиденциальности путем разработки технических методов для объяснения критериев, причинно-следственных связей при обработке персональных данных систем ИИ (таких как федеративное машинное обучение)», - пишут они.
«Поддерживать технологическое развитие методов анонимизации и шифрования и разрабатывать стандарты безопасного обмена данными на основе контроля личных данных. Содействовать просвещению широкой общественности в области управления персональными данными, в том числе осведомленности людей о процессах принятия решений на основе персональных данных на основе ИИ и расширении их прав и возможностей. Создавайте технологические решения для предоставления людям информации и контроля над тем, как их данные используются, например, для исследований, в области управления согласием и прозрачности через европейские границы, а также любых улучшений и результатов, которые были получены в результате этого, и разрабатывать стандарты безопасности обмен данными на основе контроля личных данных ».