Исаак Азимов дал нам основные правила хорошего поведения роботов: не вредить людям, подчиняться приказам и защищать себя. Теперь Британский институт стандартов выпустил более официальная версия цель помочь дизайнерам создавать этически обоснованных роботов.
Документ, BS8611 Роботы и роботизированные устройства, написанные сухим языком руководства по охране труда и технике безопасности, но нежелательные сценарии, которые он выделяет, могут быть взяты непосредственно из художественной литературы. Обман роботов, зависимость от роботов и возможность самообучающихся систем превышать свои возможности - все это отмечается как опасность, которую должны учитывать производители.
Приветствуя руководящие принципы на Социальная робототехника и ИИ На конференции в Оксфорде Алан Уинфилд, профессор робототехники в университете Западной Англии, сказал, что они представляют «первый шаг к внедрению этических ценностей в робототехнику и ИИ».
«Насколько я знаю, это первый опубликованный стандарт этического дизайна роботов», - сказал Уинфилд после мероприятия. «Это немного сложнее, чем законы Азимова - в основном излагаются методы оценки этического риска для робота».
Документ BSI начинается с некоторых общих этических принципов: «Роботы не должны быть предназначены исключительно или в первую очередь для того, чтобы убивать или вредить людям; люди, а не роботы, являются ответственными агентами; должна быть возможность выяснить, кто несет ответственность за любого робота и его поведение ».
Далее освещается ряд более спорных вопросов, таких как желательность эмоциональной связи с роботом, особенно когда робот предназначен для взаимодействия с детьми или пожилыми людьми.
Ноэль Шарки, заслуженный профессор робототехники и искусственного интеллекта в университете Шеффилда, сказал, что это пример того, как роботы могут непреднамеренно обмануть нас. «Недавно было проведено исследование, в котором маленькие роботы были встроены в детский сад», - сказал он. «Детям это нравилось, и они действительно были связаны с роботами. Но когда их спросили потом, дети явно подумали, что роботы более познавательны, чем их домашние питомцы ».
Для этого роботы должны знать, что человек считает «вредом». Это может быть что угодно, от увольнения с работы до микроагрессивных комментариев. Полиция уже использовала роботов, чтобы разнести «подозреваемого» на куски, поэтому, как и все остальное, правительство и их роботы могут игнорировать правила, в то время как мы и наши роботы должны им подчиняться.