ЕС об этике ИИ: должен «способствовать позитивным социальным изменениям»

Изображение: Европейская комиссия
Пожалуйста, поделитесь этой историей!
Технократы ЕС определяют этику ИИ: «Экологическое и социальное благополучие - Системы ИИ должны быть устойчивыми и «способствовать позитивным социальным изменениям». Это желанная «наука социальной инженерии», восходящая к изначальному движению технократии 1930-х годов. ⁃ Редактор TN
 

Европейский Союз сегодня опубликовал набор руководящих принципов о том, как компании и правительства должны разрабатывать этические приложения искусственного интеллекта.

Эти правила не похожи на «Три закона робототехники» Исаака Азимова. Они не предлагают быстрых, моральных рамок, которые помогут нам контролировать убийственных роботов. Вместо этого они обращаются к темным и рассеянным проблемам, которые будут влиять на общество, поскольку мы интегрируем ИИ в такие сектора, как здравоохранение, образование и потребительские технологии.

Так, например, если система искусственного интеллекта диагностирует вас с раком когда-нибудь в будущем, руководящие принципы ЕС хотели бы убедиться, что ряд вещей имеет место: что программное обеспечение не было предвзятым вашей расы или пола, что оно не не отвергать возражения человеческого доктора и то, что он дал пациенту возможность объяснить им свой диагноз.

Так что, да, эти руководящие принципы направлены на то, чтобы не дать ИИ разозлиться, но на уровне администратора и бюрократии, а не загадок убийства в стиле Азимова.

Чтобы помочь в достижении этой цели, ЕС созвал группу экспертов 52, которые сформулировали семь требований, которые, по их мнению, должны соответствовать будущим системам искусственного интеллекта. Они заключаются в следующем:

  • Человеческое агентство и надзор - ИИ не должен попирать человеческую автономию. Люди не должны манипулировать или принуждать системы ИИ, а люди должны иметь возможность вмешиваться или контролировать каждое решение, принимаемое программным обеспечением.
  • Техническая надежность и безопасность - ИИ должен быть безопасным и точным. Это не должно быть легко скомпрометировано внешними атаками (такими как состязательные примеры), и оно должно быть достаточно надежным.
  • Конфиденциальность и управление данными - Персональные данные, собираемые системами AI, должны быть безопасными и конфиденциальными. Он не должен быть доступен никому, и его нельзя легко украсть.
  • Прозрачность - Данные и алгоритмы, используемые для создания системы ИИ, должны быть доступны, а решения, принимаемые программным обеспечением, должны «пониматься и отслеживаться людьми». Другими словами, операторы должны иметь возможность объяснять решения, принимаемые их системами ИИ.
  • Разнообразие, недискриминация и справедливость - Услуги, предоставляемые ИИ, должны быть доступны всем, независимо от возраста, пола, расы или других характеристик. Аналогичным образом, системы не должны быть смещены в этом направлении.
  • Экологическое и социальное благополучие - Системы ИИ должны быть устойчивыми (т.е. они должны быть экологически ответственными) и «способствовать позитивным социальным изменениям»
  • Подотчетность - Системы ИИ должны быть проверяемыми и защищаться существующими средствами защиты корпоративных информаторов. Негативные воздействия систем должны быть признаны и сообщены заранее.

Вы заметите, что некоторые из этих требований довольно абстрактны и их сложно оценить в объективном смысле. (Например, определения «позитивных социальных изменений» сильно различаются от человека к человеку и от страны к стране.) Но другие более просты и могут быть проверены с помощью государственного надзора. Например, обмен данными, используемыми для обучения государственных систем искусственного интеллекта, может стать хорошим способом борьбы с предвзятые алгоритмы.

Эти руководящие принципы не имеют обязательной юридической силы, но они могут сформировать любое будущее законодательство, разработанное Европейским Союзом. ЕС неоднократно заявлял, что хочет быть лидером в этическом искусственном интеллекте, и это показал GDPR что он хочет создать далеко идущие законы, защищающие цифровые права.

Но эта роль была частично навязана ЕС обстоятельствами. Он не может конкурировать с Америкой и Китаем - мировыми лидерами в области искусственного интеллекта - когда дело доходит до инвестиций и передовых исследований, поэтому он выбрал этику как лучший выбор для формирования будущего технологии.

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

2 Комментарии
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
RL

Проблема в том, что… Представление людей, контролирующих ЕС сегодня, о том, что может быть «позитивным социальным изменением», по всей вероятности, сильно отличается от того, что население в целом считает «позитивным социальным изменением». Например, они за отмену национальных государств в пользу глобализма и неограниченной нелегальной иммиграции, а мы - нет. Когда они играют с семантикой, это сложно ...