Facebook использует AI для проверки своих мыслей, «Повышение безопасности пользователей»

Википедия общин
Пожалуйста, поделитесь этой историей!
Социальные инженеры из Технократа в Facebook считают, что теперь они могут сканировать ваши мысли, читая ваши посты и заявляя, что вам нужны психиатрические услуги. В самом деле? Будут ли они сообщать о вас автоматически, чтобы люди в белых халатах появлялись в дверях вашей квартиры с прямой курткой? Эта линия мышления вне опасности. ⁃ TN Editor

Это программа для спасения жизней. Новая технология искусственного интеллекта «упреждающего обнаружения» Facebook будет сканировать все сообщения на предмет суицидальных мыслей и, при необходимости, отправлять ресурсы по психическому здоровью пользователю из группы риска или его друзьям или связываться с местными службами быстрого реагирования. Используя искусственный интеллект, чтобы помечать тревожные сообщения модераторам-людям вместо ожидания отчетов пользователей, Facebook может сократить время, необходимое для отправки помощи.

Facebook предварительно протестирован с использованием AI для выявления тревожных постов и более заметные варианты сообщений о самоубийствах на поверхности друзьям в США Теперь Facebook будет обыскивать все виды контента во всем мире с этим AI, кроме как в Европейском Союзе, где Положение о защите данных Общие Законы о конфиденциальности при профилировании пользователей на основе конфиденциальной информации усложняют использование этой технологии.

Facebook также будет использовать ИИ для определения приоритетов особо опасных или срочных пользовательских отчетов, чтобы их быстрее обрабатывали модераторы, и инструменты для мгновенного раскрытия ресурсов на местном языке и контактной информации первого респондента. Он также посвящает больше модераторов предотвращению самоубийств, обучая их работе с делами 24 / 7, и теперь у него есть местные партнеры 80, такие как Save.org, National Lifeline Prevention Lifeline и Forefront, из которых можно предоставлять ресурсы для пользователей из групп риска и их сетей. ,

«Речь идет о сокращении минут на каждом этапе процесса, особенно в Facebook Live», - говорит вице-президент по управлению продуктами Гай Розен. За последний месяц тестирования Facebook инициировал более 100 «проверок состояния здоровья», когда специалисты по оказанию первой помощи посещали затронутых пользователей. «Были случаи, когда лицо, оказывающее первую помощь, прибыло, а человек все еще ведет трансляцию».

Идея проактивного сканирования контента постов Facebook может вызвать некоторые антиутопические опасения по поводу того, как еще можно применить эту технологию. У Facebook не было ответов о том, как избежать сканирования политического инакомыслия или мелких преступлений, а Розен просто сказал: «У нас есть возможность помочь здесь, поэтому мы собираемся в это инвестировать». технология, но это еще одно пространство, где у нас нет выбора, кроме как надеяться, что Facebook не заходит слишком далеко.

Генеральный директор Facebook Марк Цукерберг оценил обновление продукта в сообщении сегодня, писать это «В будущем ИИ сможет лучше понимать тонкие нюансы языка и сможет выявлять и другие проблемы, помимо самоубийства, включая быстрое выявление новых видов издевательств и ненависти».

К сожалению, после того, как TechCrunch спросил, есть ли у пользователей возможность отказаться от своих сообщений, представитель Facebook ответил, что пользователи не могут отказаться. Они отметили, что эта функция предназначена для повышения безопасности пользователей, и что ресурсы поддержки, предлагаемые Facebook, могут быть быстро отклонены, если пользователь не хочет их видеть.]

Facebook обучил AI, находя шаблоны в словах и образах, используемых в сообщениях, о которых в прошлом сообщалось о риске самоубийства. Он также ищет комментарии типа «ты в порядке?» И «Вам нужна помощь?»

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

0 Комментарии
Встроенные отзывы
Посмотреть все комментарии