Роботы-убийцы вождей Пентагона могут потенциально уничтожить человечество

Пентагон (Wikipedia Commons)
Пожалуйста, поделитесь этой историей!

Всего шесть месяцев назад Пентагон отрицал, что он будет создавать автономных роботов-убийц. Сегодня ясно, что они не только делают такие машины, но и явно обеспокоены тем, что автономные войны роботов могут уничтожить все человечество.  TN Editor

Огромные технологические скачки в беспилотных летательных аппаратах, искусственном интеллекте и автономных системах оружия должны быть решены до того, как человечество будет доведено до исчезновения.

Роботизированное оружие стало настолько развитым, что ведущие военные эксперты США опасаются, что сюжет научно-фантастического фильма «Терминатор» может стать реальностью.

Огромные технологические прорывы в беспилотных летательных аппаратах, искусственном интеллекте и автономных системах оружия должны быть решены до того, как человечество будет вымиреномеханические повелители как в классике 1984 Арнольд Шварценеггер, по словам руководителей Пентагона.

Генерал ВВС Пол Сельва, заместитель председателя Объединенного комитета начальников штабов Министерства обороны США, заявил, что мышление оружие может привести к: «Роботизированные системы, наносящие смертельный урон… Терминатору без совести».

Когда его спросили о роботизированном оружии, способном принимать собственные решения, он сказал: «Наша задача - победить врага», но «это регулируется законом и условностями».

Он говорит, что военные настаивают на том, чтобы люди участвовали в процессе принятия решений о «применении насилия к врагу».

«Эта этическая граница - это та, на которой мы провели довольно тонкую линию. Это то, что мы должны учитывать при разработке этого нового оружия », - добавил он.

Сельва сказал, что Пентагон должен обратиться к фирмам, занимающимся технологиями искусственного интеллекта, которые не обязательно «ориентированы на военные действия», для разработки новых систем командования и моделей лидерства, сообщает Новости ВМС США .

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

3 Комментарии
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
FreeOregon

У генерала Пола Сельвы есть совесть?

Джон Данлэп

Эта статья только укрепляет мою убежденность в том, что это оружие не предназначено для обычных боевых действий. ИИ никогда не будет принимать решения «лучше», чем может человек, но он уже принимает решения намного быстрее. Эти машины не имеют преимущества перед обычными силами просто потому, что противостоящие силы будут использовать свои собственные системы и средства противодействия, но они представляют серьезную опасность. В частности, из-за скорости, с которой автономное оружие будет принимать решения, существует очень реальная вероятность того, что форма любого конфликта, включая расширение и эскалацию, будет развиваться со скоростью, превышающей способность лиц, принимающих решения, оставаться впереди.... Читать дальше