Восходящая волна алгоритмов, управляющих миром

Контроль умаYoutube
Пожалуйста, поделитесь этой историей!

Технократы уже создали достаточно алгоритмов, чтобы управлять миром, но он едва поцарапал поверхность. В конце концов, научная диктатура будет контролировать практически все.  TN Editor

Когда вы просматриваете в Интернете новую пару обуви, выбираете фильм для потоковой передачи на Netflix или подаете заявку на автокредит, алгоритм наверняка найдет свое слово в результатах.

Сложные математические формулы играют растущую роль во всех сферах жизни: от обнаружения рака кожи до предложения новых друзей в Facebook, принятия решения о том, кто получит работу, как используются полицейские ресурсы, кто получает страховку по какой цене или кто находится на страховом риске. без летать ».

Алгоритмы используются - экспериментально - для написания новостных статей на основе необработанных данных, в то время как президентской кампании Дональда Трампа помогли поведенческие маркетологи, которые использовали алгоритм для выявления самой высокой концентрации «убедительных избирателей».

Но в то время как такие автоматизированные инструменты могут внести некоторую объективность в прежние субъективные решения, растут опасения по поводу отсутствия прозрачности алгоритмов, что может повлечь за собой растущее давление с целью применения стандартов этики или «подотчетности».

Специалист по анализу данных Кэти О'Нил предостерегает от «слепого доверия» формулам для определения справедливого результата.

«Алгоритмы по своей сути несправедливы, потому что успех определяет человек, строящий модель», - сказала она.

Усиливая недостатки

О'Нил утверждает, что, хотя некоторые алгоритмы могут быть полезными, другие могут быть гнусными. В своей книге 2016 года «Оружие математического разрушения» она приводит несколько тревожных примеров из Соединенных Штатов:

  • Государственные школы в Вашингтоне, округ Колумбия, в 2010 году уволили более 200 учителей, в том числе несколько уважаемых преподавателей, на основании баллов по алгоритмической формуле, которая оценивала успеваемость.
  • Мужчине с диагнозом биполярное расстройство было отказано в приеме на работу в семи крупных розничных сетях после того, как сторонний «личностный» тест показал, что он подвергается высокому риску на основании своей алгоритмической классификации.
  • Многие юрисдикции используют «прогнозирующую полицейскую работу» для перемещения ресурсов в вероятные «горячие точки». О'Нил говорит, что в зависимости от того, как данные поступают в систему, это может привести к раскрытию большего количества мелких преступлений и «петле обратной связи», которая стигматизирует бедные сообщества.
  • Некоторые суды полагаются на компьютерные формулы при вынесении приговоров к тюремному заключению и условно-досрочному освобождению, что может дискриминировать меньшинства, принимая во внимание такие факторы «риска», как их район проживания и связи друзей или семьи с преступностью.
  • В мире финансов брокеры «очищают» данные из Интернета и других источников новыми способами, чтобы принимать решения по кредиту или страхованию. О'Нил утверждает, что это слишком часто усиливает предубеждения против обездоленных.

Ее выводы нашли отражение в прошлогоднем отчете Белого дома, в котором предупреждалось, что алгоритмические системы «не безошибочны - они полагаются на несовершенные входные данные, логику, вероятность и людей, которые их разрабатывают».

В отчете отмечается, что в идеале системы данных могут помочь отсеять человеческую предвзятость, но предостерегаются алгоритмы, «систематически ставящие в невыгодное положение определенные группы».

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

0 Комментарии
Встроенные отзывы
Посмотреть все комментарии