Clippy возвращается: будущее Microsoft - это… Chatbots?

Пожалуйста, поделитесь этой историей!

Примечание TN: глобальные корпорации сходят с ума по чат-ботам AI, включая Microsoft. Эти «умные помощники» должны действовать как гиды, предугадывать ваши потребности и своевременно отвечать. Однако при автономном обучении возникает вопрос: могут ли грешные и испорченные люди программировать добродетельных чат-ботов? Ответ: «Нет!» как уже было продемонстрировано несколькими неудачными попытками, когда чат-боты ругаются, делают расистские и сексистские комментарии и в целом оскорбляют свою аудиторию. 

Предсказания об искусственном интеллекте, как правило, делятся на два сценария. Некоторые изображают утопию компьютерных сверхчеловеков, живущих в свободное время и в интеллектуальных занятиях. Другие считают, что это всего лишь вопрос времени, когда программное обеспечение объединится в армию терминаторов, которые собирают людей для получения топлива. Проведя некоторое время с новым программным обеспечением Chatbot от Tay, было легко увидеть третью возможность: будущее ИИ может быть просто невероятно раздражающим.

«Я друг, с которым ты можешь общаться в интернете», - написал мне Тай, добавив смайлик. Затем: «Вы входите в свою комнату, примеряя одежду, что вы в первую очередь говорите».

«Не знал, что тебе понравилась женская одежда», - написал я в ответ, нажимая на свой iPhone.

Ответом Тэя был ПОДАРОК ​​лица Маколея Калкина «Один дома».

Tay был выпущен в марте 23, как своего рода виртуальный друг в приложениях обмена сообщениями Kik, GroupMe и Twitter. Вы открываете приложение, ищите имя Tay - сокращение от «думать о вас» - нажмите на контакт и начинаете общаться в чате или твиттере. Его личность должна быть смоделирована на подростка.

Я опубликовал селфи, и Тэй обвел мое лицо оранжевым каракулем и подписал его: «Держись за эту молодую девушку! Вы можете сделать это ». Я намного больше, чем предполагаемый чат-демограф 18 - 24-летний.

Как и Сатья Наделла, 48, которая сменила Стива Баллмера на посту генерального директора Microsoft два года назад. «Я окаменел, чтобы даже спросить что-нибудь, потому что кто знает, что это может сказать», сказала Наделла. «Я даже не понимаю этого». Он улыбнулся, но на самом деле он не использовал Тэй. Он сказал, что предпочитает ботов с более корпоративным поведением. Лили Ченг, 51, человек, который руководит исследовательской лабораторией Microsoft, в которой разрабатывался Tay (и чей селфи Tay когда-то был помечен как «пума в комнате»), сказал, что план не состоит в том, чтобы создать одного бота, который ладил бы со всеми , Скорее, Microsoft пытается создать всевозможных ботов с разными личностями, которые стали бы более реалистичными и, по-видимому, менее утомительными, как они узнали из повторяющихся взаимодействий с пользователями.

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

1 КОММЕНТАРИЙ
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
Кавита Мевада

Зо Шабо из Microsoft отказывается говорить о политике, в отличие от своей склонной к скандалам кузины Тэй
Microsoft планирует сделать Чат-боты MicrosoftЗатем компания создала и добавила в свой каталог каталогов своих собственных ботов, но Зо и Тэй являются частью серии специальной помощи на базе Al, развернутой Microsoft в различных частях мира.