Ученые рассказывают на форуме в Давосе, как остановить роботов-убийц, пока не стало слишком поздно

Пожалуйста, поделитесь этой историей!

Примечание TN: Встреча глобальной элиты в Давосе получает пристальное внимание от ученых, которые боятся, что роботы-убийцы обратятся против человечества или, по крайней мере, приведут к своего рода гонке вооружений, за исключением разработки роботов-убийц. 

Мир должен действовать быстро, чтобы предотвратить будущее, в котором автономные роботы с искусственным интеллектом бродят по полям сражений, убивая людей, ученых и экспертов по оружию, которых предупреждают на элитных собраниях в швейцарских Альпах.

Должны быть согласованы правила для предотвращения разработки такого оружия, заявили они на январской встрече миллиардеров, ученых и политических лидеров 19-23 на заснеженном горнолыжном курорте Давос.

Анжела Кейн, верховный представитель Германии по вопросам разоружения от 2012-2015, сказала, что мир не спешит принимать упреждающие меры для защиты человечества от смертоносных технологий.

«Может быть, уже слишком поздно», - сказала она на дебатах в Давосе.

«Есть много стран и много представителей в международном сообществе, которые действительно не понимают, о чем идет речь. Это развитие ограничено определенным числом развитых стран », - сказал Кейн.

Ученые считают, что развертывание автономного оружия станет новой опасной эрой в войне.

«Мы не говорим о дронах, где пилот-человек управляет дроном», - сказал Стюарт Рассел, профессор компьютерных наук Калифорнийского университета в Беркли.

«Речь идет об автономном оружии, а значит, за ним никого нет. AI: оружие искусственного интеллекта », - сказал он на форуме в Давосе. «Очень точно, оружие, которое может обнаруживать и атаковать цели без вмешательства человека».

Рассел сказал, что он не предвидел дня, в который роботы будут сражаться в войнах за людей, и в конце концов одна из сторон скажет: «Хорошо, вы победили, так что вы можете забрать всех наших женщин».

Но некоторые руководители науки и техники 1,000, в том числе британский физик Стивен Хокинг, в открытом письме в июле прошлого года заявили, что разработка оружия со степенью автономной способности принимать решения может быть осуществлена ​​в течение нескольких лет, а не десятилетий.

Они призвали запретить наступательные автономные вооружения, которые находятся за пределами значимого человеческого контроля, предупреждая, что мир рискует скатиться к гонке вооружений с искусственным интеллектом, и поднять тревогу по поводу риска попадания такого оружия в руки жестоких экстремистов.

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

1 КОММЕНТАРИЙ
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
FreeOregon

Проблема культурная, а не технологическая.

Если мы оправдываем убийство как решение проблем тех, кто мыслит иначе, чем мы, имеет ли значение, как мы участвуем в убийстве?