Служба защиты детей использует ИИ, большие данные для прогнозирования жестокого обращения с детьми

Пожалуйста, поделитесь этой историей!
Преступление доведено до новой крайности, чтобы выкурить ситуации жестокого обращения с детьми, но чтобы попасть туда, миллионы граждан пострадают от нарушения конфиденциальности. Многие ложные срабатывания также будут неправомерно использованы. Это обмен одного вида насилия на другой? Действительно, технократы устроили этический огненный шторм. ⁃ Редактор TN

Возможно, неудивительно, что в эпоху жесткой экономии и атмосферы страха по поводу жестокого обращения с детьми социальные работники обратились за помощью к новым технологиям.

Местные власти - какое лицо растущий спрос и дефицит финансирования в £ 800m - начинают спрашивать, могут ли большие данные помочь выявить уязвимых детей.

Может ли компьютерная программа пометить проблемную семью, идентифицировать потенциальную жертву и помешать другому ребенку P или Виктории Climbié?

Несколько лет назад такие вопросы были бы научной фантастикой; теперь они являются научным фактом.

Бристоль - это одно из мест, где экспериментируют с этими новыми возможностями и сталкиваются с моральными и этическими вопросами, которые возникают вместе с ними.

Гэри Дэвис, который наблюдает за системой прогнозирования совета, может видеть преимущества.

Он утверждает, что это не означает, что люди должны выходить из процесса принятия решений; скорее это означает использование данных, чтобы люди не совершали ошибок.

«Это не значит, что вы будете подвергнуты сексуальной эксплуатации или пропадете без вести», - говорит Дэвис. «Это демонстрирует поведенческие характеристики эксплуатации или пропажи без вести. Он отмечает этот риск и уязвимость ».

Такие методы работали в других областях в течение многих лет. Системы машинного обучения, созданные для добычи огромных объемов персональных данных, давно используются для прогнозирования поведения клиентов в частном секторе.

Компьютерные программы оценивают вероятность того, что мы не выполним кредит, или какой риск мы представляем страховщику.

Разработчики прогнозирующей модели должны определить «переменную результата», которая указывает на наличие фактора, который они пытаются предсказать.

Для защиты детей это может быть ребенок, попадающий в систему ухода.

Затем они пытаются определить характеристики, которые обычно встречаются у детей, попадающих в систему ухода. После того, как они были идентифицированы, модель можно запустить для больших наборов данных, чтобы найти других людей, которые имеют те же характеристики.

The Guardian получил подробную информацию обо всех прогнозирующих показателях, рассматриваемых для включения в систему защиты детей Совета Thurrock. Они включают в себя историю домашнего насилия, оскорбления молодежи и прогулы.

Более удивительные показатели, такие как задолженность по арендной плате и данные о состоянии здоровья, были первоначально рассмотрены, но исключены из окончательной модели. В случае с Терроком, советом в Эссексе и лондонским городком Хакни, семьи могут быть помечены социальными работниками как потенциальные кандидаты на участие в программе «Проблемные семьи». По этой схеме советы получают гранты от центрального правительства для помощи домохозяйствам с такими долговременными трудностями, как безработица.

Такие системы неизбежно вызывают проблемы конфиденциальности. Ваджид Шафик, исполнительный директор Xantura, компании, предоставляющей аналитическую работу для Террока и Хакни, настаивает на том, что необходимо соблюдать баланс между правами на неприкосновенность частной жизни и использованием технологий для общественного блага.

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

0 Комментарии
Встроенные отзывы
Посмотреть все комментарии