Ученые протестуют против создания в Южно-Корейском университете новой лаборатории по искусственному оружию с летальным исходом

Пожалуйста, поделитесь этой историей!
Южная Корея - это технократия сверху вниз, и, таким образом, нет никаких ограничений в использовании университетских ресурсов для разработки технологий, которые можно использовать в военных целях; в данном случае это автономные роботы-убийцы, оснащенные искусственным интеллектом. ⁃ TN Editor

Университет KAIST якобы открыл новую лабораторию по созданию искусственного интеллекта в феврале, что заставило десятки исследователей поверить в то, что эти продукты «могут стать оружием террора».

Оби Уолш, профессор Университета Нового Южного Уэльса в Сиднее, организовал бойкот вместе с другими исследователями 49.

Он сказал в открытом письме: «В случае разработки автономное оружие… позволит вести войну быстрее и в больших масштабах, чем когда-либо прежде.

«У них будет потенциал стать оружием террора».

KAIST заявила, что «не намерена заниматься разработкой летальных автономных систем оружия и роботов-убийц».

Президент университета Сунг-Чул Шин сказал, что университет «в значительной степени осведомлен» об этических проблемах в отношении ИИ.

Но вчера исследователи объявили бойкот университета, заявив, что будут воздерживаться от посещения KAIST, приема посетителей из университета или сотрудничества с его исследовательскими программами, пока он не пообещает прекратить разработку оружия.

Ученые добавили: «Они могут стать оружием террора.

«Деспоты и террористы могли использовать их против невинного населения, снимая любые этические ограничения.

«Этот ящик Пандоры будет трудно закрыть, если его открыть».

Профессор Уолш признал, что в военной сфере было много хороших применений робототехники и искусственного интеллекта.

Ученые сослались на эффективные запреты на предыдущие технологии вооружений и призвали KAIST запретить любые работы со смертельным автономным оружием и воздерживаться от использования ИИ, которое могло бы нанести вред человеческим жизням.

Но он сказал, что они не должны иметь возможность решать, «кто живет или умирает».

Письмо, также подписанное ведущими экспертами в области глубокого обучения и робототехники, было выпущено перед встречей в следующий понедельник в Женеве странами-членами 123 ООН по проблемам, создаваемым смертоносным автономным оружием, называемым «роботами-убийцами».

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

0 Комментарии
Встроенные отзывы
Посмотреть все комментарии