Больше чем когда либо, Facebook находится под давлением, чтобы доказать, что его алгоритмы развертываются ответственно.
В среду на конференции разработчиков F8 компания объявила, что сформировала специальную команду и разработала дискретное программное обеспечение для обеспечения того, чтобы ее системы искусственного интеллекта принимали решения как можно более этично, без предубеждений.
Facebook, как другие крупные технологические компании с продуктами, используемыми большими и разнообразными группами людей, является более глубоко включающий AI в свои услуги. Facebook заявил на этой неделе, что начнет предлагать перевод сообщений, которые люди получают через приложение Messenger. Системы перевода необходимо сначала обучить работе с данными, а этические нормы могут помочь обеспечить обучение систем Facebook правильному переводу.
Facebook сказал, что эти усилия не являются результатом каких-либо изменений, которые произошли за семь недель с тех пор, как стало известно, что фирма по анализу данных Cambridge Analytica неправомерно использовали личные данные пользователей социальной сети в преддверии выборов 2016 года. Но очевидно, что отношение общества к Facebook в последнее время резко ухудшилось, настолько, что генеральный директор Марк Цукерберг пришлось просидеть часами допроса в Конгрессе в прошлом месяце.
Каждое объявление сейчас под микроскопом.
Facebook не дотянул до формирования доски, ориентированной на этику ИИ, так как Аксон (ранее Taser) сделал на прошлой неделе. Но эти шаги совпадают с более широким признанием в отрасли того, что исследователи ИИ должны работать, чтобы сделать свои системы инклюзивными. Группа DeepMind AI от Alphabet сформировала команда по этике и обществу прошлый год. До этого, от Microsoft Исследовательская организация создала группу по прозрачности и этике.
Сфера ИИ имела свою долю смущений, как, например, когда три года назад был замечен Google Фото классифицировать чернокожих как горилл.
В прошлом году команда Клоуманна разработала программу под названием Fairness Flow, которая с тех пор была интегрирована в широко используемую систему Facebook. FBLearner Flow внутреннее программное обеспечение для более легкого обучения и запуска систем искусственного интеллекта. Программное обеспечение анализирует данные, принимая во внимание их формат, а затем выдает отчет, обобщающий их.
Клуманн сказала, что работает над темой справедливости с тех пор, как присоединилась к Facebook в 2016 году, как раз тогда, когда люди в технологической индустрии начали говорить об этом более открыто и возникла обеспокоенность общества по поводу силы ИИ.
Прочитайте полную историю здесь…