Эксперт: AI Soldiers разработают «Моральный компас» и будут игнорировать приказы

Wikimedia Commons
Пожалуйста, поделитесь этой историей!
Уже было продемонстрировано, что алгоритмы ИИ проявляют предвзятость своих создателей, так почему бы не убить и намерения? Технократы настолько поглощены своими изобретениями Поллианны, что не видят логического конца своего существования. ⁃ TN Editor

Убийственный робот-солдат станет настолько продвинутым, что сможет разработать собственный моральный кодекс, чтобы жестоко игнорировать приказы, утверждает эксперт AI.

Экс-инженер по кибернетике доктор Ян Пирсон предсказывает, что мы движемся к будущему сознательные машины.

Но если роботы будут задействованы военными силами, футуролог предупреждает, что они смогут сформировать свою собственную «моральную точку зрения».

И если они это сделают, бывший ученый-ракетчик утверждает, что они могут обернуться против тех самых людей, которые отправляют их в бой.

Доктор Пирсон, ведущий блог для Futurizon, сказал Daily Star Online: «По мере того, как ИИ продолжает развиваться и мы движемся по дороге к сознанию - и это не произойдет в одночасье, но мы постепенно делаем компьютеры все больше и больше. более сложные - в какой-то момент вы даете им доступ к моральному воспитанию, чтобы они могли сами изучить мораль.

«Вы можете дать им возможность рассуждать, и они могут придумать другой моральный кодекс, который поставит их на более высокий пьедестал, чем люди, которым они должны служить.

На вопрос, может ли это оказаться фатальным, он ответил: «Да, конечно.

«Если они контролируют оружие и решат, что они обладают более высокими моральными качествами, чем люди, которых они должны охранять, они могут принять решение о том, что определенных людей следует убить, чтобы защитить большую часть населения.

«Кто знает, какие решения они могут принять?

«Если у вас есть парень на поле боя, который приказывает солдатам стрелять в эту группу людей по какой-либо причине, но компьютер думает иначе, компьютер не убеждает его, он может заключить, что солдат, отдающий приказы, является худшим преступником, а не чем люди, которых он пытается убить, поэтому он может развернуться и вместо этого убить его.

«Это вполне возможно, это зависит от того, как написаны системы».

Предупреждение доктора Пирсона прозвучало на фоне растущих опасений по поводу использования полностью автономных роботов на войне.

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

6 Комментарии
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
Pyra

Глупо. Думает ли кто-нибудь из этих компьютерных придурков о том, что они говорят? Я имею в виду, подумайте об этом через кончик носа.

Поговорка «заявив, что они мудрые, они стали дураками…», имеет здесь большое значение.