Выпущена официальная этика роботов: не навреди, подчиняйся приказам

Пожалуйста, поделитесь этой историей!

Профессор робототехники из Англии говорит: «Проблема с системами ИИ, особенно с системами глубокого обучения, заключается в том, что невозможно знать, почему они принимают решения, которые они делают.«Если это правда, то роботы уже вышли из-под контроля.  TN Editor

Исаак Азимов дал нам основные правила хорошего поведения роботов: не вредить людям, подчиняться приказам и защищать себя. Теперь Британский институт стандартов выпустил более официальная версия цель помочь дизайнерам создавать этически обоснованных роботов.

Документ, BS8611 Роботы и роботизированные устройства, написанные сухим языком руководства по охране труда и технике безопасности, но нежелательные сценарии, которые он выделяет, могут быть взяты непосредственно из художественной литературы. Обман роботов, зависимость от роботов и возможность самообучающихся систем превышать свои возможности - все это отмечается как опасность, которую должны учитывать производители.

Приветствуя руководящие принципы на Социальная робототехника и ИИ На конференции в Оксфорде Алан Уинфилд, профессор робототехники в университете Западной Англии, сказал, что они представляют «первый шаг к внедрению этических ценностей в робототехнику и ИИ».

«Насколько я знаю, это первый опубликованный стандарт этического дизайна роботов», - сказал Уинфилд после мероприятия. «Это немного сложнее, чем законы Азимова - в основном излагаются методы оценки этического риска для робота».

Документ BSI начинается с некоторых общих этических принципов: «Роботы не должны быть предназначены исключительно или в первую очередь для того, чтобы убивать или вредить людям; люди, а не роботы, являются ответственными агентами; должна быть возможность выяснить, кто несет ответственность за любого робота и его поведение ».

Далее освещается ряд более спорных вопросов, таких как желательность эмоциональной связи с роботом, особенно когда робот предназначен для взаимодействия с детьми или пожилыми людьми.

Ноэль Шарки, заслуженный профессор робототехники и искусственного интеллекта в университете Шеффилда, сказал, что это пример того, как роботы могут непреднамеренно обмануть нас. «Недавно было проведено исследование, в котором маленькие роботы были встроены в детский сад», - сказал он. «Детям это нравилось, и они действительно были связаны с роботами. Но когда их спросили потом, дети явно подумали, что роботы более познавательны, чем их домашние питомцы ».

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

1 КОММЕНТАРИЙ
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
Джерри Дэй

Для этого роботы должны знать, что человек считает «вредом». Это может быть что угодно, от увольнения с работы до микроагрессивных комментариев. Полиция уже использовала роботов, чтобы разнести «подозреваемого» на куски, поэтому, как и все остальное, правительство и их роботы могут игнорировать правила, в то время как мы и наши роботы должны им подчиняться.