Мир должен действовать быстро, чтобы предотвратить будущее, в котором автономные роботы с искусственным интеллектом бродят по полям сражений, убивая людей, ученых и экспертов по оружию, которых предупреждают на элитных собраниях в швейцарских Альпах.
Должны быть согласованы правила для предотвращения разработки такого оружия, заявили они на январской встрече миллиардеров, ученых и политических лидеров 19-23 на заснеженном горнолыжном курорте Давос.
Анжела Кейн, верховный представитель Германии по вопросам разоружения от 2012-2015, сказала, что мир не спешит принимать упреждающие меры для защиты человечества от смертоносных технологий.
«Может быть, уже слишком поздно», - сказала она на дебатах в Давосе.
«Есть много стран и много представителей в международном сообществе, которые действительно не понимают, о чем идет речь. Это развитие ограничено определенным числом развитых стран », - сказал Кейн.
Ученые считают, что развертывание автономного оружия станет новой опасной эрой в войне.
«Мы не говорим о дронах, где пилот-человек управляет дроном», - сказал Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли.
«Речь идет об автономном оружии, а значит, за ним никого нет. AI: оружие искусственного интеллекта », - сказал он на форуме в Давосе. «Очень точно, оружие, которое может обнаруживать и атаковать цели без вмешательства человека».
Рассел сказал, что он не предвидел дня, в который роботы будут сражаться в войнах за людей, и в конце концов одна из сторон скажет: «Хорошо, вы победили, так что вы можете забрать всех наших женщин».
Но некоторые руководители науки и техники 1,000, в том числе британский физик Стивен Хокинг, в открытом письме в июле прошлого года заявили, что разработка оружия со степенью автономной способности принимать решения может быть осуществлена в течение нескольких лет, а не десятилетий.
Они призвали запретить наступательные автономные вооружения, которые находятся за пределами значимого человеческого контроля, предупреждая, что мир рискует скатиться к гонке вооружений с искусственным интеллектом, и поднять тревогу по поводу риска попадания такого оружия в руки жестоких экстремистов.
Проблема культурная, а не технологическая.
Если мы оправдываем убийство как решение проблем тех, кто мыслит иначе, чем мы, имеет ли значение, как мы участвуем в убийстве?