Facebook создает специальную команду по этике для изучения предвзятости в программном обеспечении AI

Пожалуйста, поделитесь этой историей!
Программы ИИ наследуют предубеждения своих создателей. Таким образом, программы цензуры, созданные Facebook, уже содержат семена мысли и этики технократов. Способны ли эти самые люди исследовать свои творения? ⁃ TN Editor

Больше чем когда либо, Facebook находится под давлением, чтобы доказать, что его алгоритмы развертываются ответственно.

В среду на конференции разработчиков F8 компания объявила, что сформировала специальную команду и разработала дискретное программное обеспечение для обеспечения того, чтобы ее системы искусственного интеллекта принимали решения как можно более этично, без предубеждений.

Facebook, как другие крупные технологические компании с продуктами, используемыми большими и разнообразными группами людей, является более глубоко включающий AI в свои услуги. Facebook заявил на этой неделе, что начнет предлагать перевод сообщений, которые люди получают через приложение Messenger. Системы перевода необходимо сначала обучить работе с данными, а этические нормы могут помочь обеспечить обучение систем Facebook правильному переводу.

 «Мы оглянемся назад и скажем:« Замечательно, что мы смогли проактивно опередить эти вопросы и понять, прежде чем мы начнем запускать вещи, что является справедливым для любого данного продукта для демографической группы », - сказала Изабель Клуманн , сообщил CNBC научный сотрудник Facebook. Она отказалась назвать, сколько человек в команде.

Facebook сказал, что эти усилия не являются результатом каких-либо изменений, которые произошли за семь недель с тех пор, как стало известно, что фирма по анализу данных Cambridge Analytica неправомерно использовали личные данные пользователей социальной сети в преддверии выборов 2016 года. Но очевидно, что отношение общества к Facebook в последнее время резко ухудшилось, настолько, что генеральный директор Марк Цукерберг пришлось просидеть часами допроса в Конгрессе в прошлом месяце.

Каждое объявление сейчас под микроскопом.

Facebook не дотянул до формирования доски, ориентированной на этику ИИ, так как Аксон (ранее Taser) сделал на прошлой неделе. Но эти шаги совпадают с более широким признанием в отрасли того, что исследователи ИИ должны работать, чтобы сделать свои системы инклюзивными. Группа DeepMind AI от Alphabet сформировала команда по этике и обществу прошлый год. До этого, от Microsoft Исследовательская организация создала группу по прозрачности и этике.

Сфера ИИ имела свою долю смущений, как, например, когда три года назад был замечен Google Фото классифицировать чернокожих как горилл.

В прошлом году команда Клоуманна разработала программу под названием Fairness Flow, которая с тех пор была интегрирована в широко используемую систему Facebook. FBLearner Flow внутреннее программное обеспечение для более легкого обучения и запуска систем искусственного интеллекта. Программное обеспечение анализирует данные, принимая во внимание их формат, а затем выдает отчет, обобщающий их.

Клуманн сказала, что работает над темой справедливости с тех пор, как присоединилась к Facebook в 2016 году, как раз тогда, когда люди в технологической индустрии начали говорить об этом более открыто и возникла обеспокоенность общества по поводу силы ИИ.

Прочитайте полную историю здесь…

 

Подписаться
Уведомление о
гость

0 Комментарии
Встроенные отзывы
Посмотреть все комментарии