Гонка вооружений искусственного интеллекта неизбежна, но можно ли ее контролировать?

Пожалуйста, поделитесь этой историей!

Всемирный экономический форум понимает, что ИИ спровоцировал международную гонку вооружений, но результат все еще неясен. С точки зрения технократа, ИИ - это решение всех социальных и личных проблем человечества.  TN Editor

Машины восстают, покоряя человечество. Тропа научной фантастики, которая почти так же стара, как сами машины. Сценарии конца света, вращающиеся вокруг этой темы, настолько диковинны, как МатрицаВ котором искусственный интеллект, созданный человеком, включает людей в симулированную реальность для сбора энергии из их тел - их трудно представить себе как серьезные угрозы.

Тем временем искусственно интеллектуальные системы продолжают быстро развиваться. Самостоятельные автомобили начинают делиться нашими дорогами; карманные устройства отвечают на наши запросы и управляют нашими расписаниями в режиме реального времени; алгоритмы побеждают нас на ходу; роботы становятся лучше при вставании, когда они падают. Очевидно, что развитие этих технологий пойдет на пользу человечеству. Но тогда - не все ли антиутопические научно-фантастические истории начинаются таким образом?

Любая дискуссия о антиутопическом потенциале ИИ может привести к одной из двух крайностей. Один из них чрезмерно доверчивый напуганный. Конечно, Сири не собирается превращаться в убийственный HAL из 2001: A Space Odyssey, Но другая крайность не менее опасна - самодовольство, что нам не нужно думать об этих проблемах, потому что ИИ, угрожающий человечеству, находится на расстоянии десятилетий или даже больше.

Это правда, что искусственной «суперинтеллекту», любимой научной фантастикой, может быть много десятилетий в будущем, если это вообще возможно. Тем не менее, Недавний опрос ведущих исследователей искусственного интеллекта от TechEmergence обнаружил широкий спектр опасений по поводу угрозы безопасности ИИ в гораздо более реалистичном периоде 20-года, включая распад финансовой системы при неожиданном взаимодействии алгоритмов и потенциал ИИ, помогающий злоумышленникам оптимизировать биотехнологическое оружие.

Эти примеры показывают, что наряду с техническим прогрессом на многих фронтах Четвертая промышленная революция обещает быструю и масштабную демократизацию способности нанести ущерб в очень больших масштабах. На темной стороне «глубокой паутины», где информация скрыта от поисковых систем, уже есть в продаже разрушительные инструменты для целого ряда новейших технологий, от оружия, напечатанного в 3D, до расщепляющегося материала и оборудования для генной инженерии в домашних лабораториях. В каждом случае ИИ усугубляет возможность причинения вреда.

Рассмотрим еще одну возможность, упомянутую в обзоре TechEmergence. Если мы объединим пистолет, дрон квадрокоптера, камеру с высоким разрешением и алгоритм распознавания лиц, который не должен был бы быть намного более продвинутым, чем текущий лучший в своем классе, мы теоретически могли бы создать машину, которую мы могли бы запрограммировать, чтобы летать над толпами, разыскивая конкретные лица и убивая цели на виду.

Такое устройство не требует суперинтеллекта. Это возможно при использовании нынешнего «узкого» ИИ, который еще не может совершить своего рода творческие скачки понимания в разных областях, которые могут сделать люди. Когда «искусственный общий интеллект», или AGI, развивается - как представляется вероятным, рано или поздно - это значительно увеличит как потенциальные выгоды от ИИ, так и в слова Джеффа Годделла, его угрозы безопасности, «принуждая новый вид учета с технологическим джинном».

Но недостаточно продумано потенциал оружия ИИ. Как Венделл Уоллах Он говорит: «Навигация в будущем технологических возможностей - опасное предприятие», - отмечает он. «Он начинается с обучения задавать правильные вопросы - вопросы, которые раскрывают ловушки бездействия и, что более важно, пути, доступные для прокладки курса в безопасную гавань».

Проблемы нераспространения

Видные ученые в том числе Стюарт Рассел выпустили призыв к действию чтобы избежать «потенциальных ловушек» в развитии ИИ, который был со спинкой ведущими технологами, включая Элон Маск, Демис Хассабис, Стив Возняк и Билл Гейтс. Одной из громких ловушек могут быть «смертоносные автономные системы вооружений» (LAWS) - или, что еще проще, «роботы-убийцы». Технологические достижения в робототехнике и цифровое преобразование безопасности уже изменили фундаментальную парадигму войны. По Кристоферу Кокеру: «Технологии 21X века меняют наше понимание войны глубоко тревожными способами». Полностью разработанные ЗАКОНЫ, вероятно, трансформируют современную войну так же радикально, как порох и ядерное оружие.

Совет по правам человека ООН призвал к мораторию в отношении дальнейшего развития ЗАКОНОВ, в то время как другие группы активистов и кампании выступают за полный запрет, проводя аналогию с химическим и биологическим оружием, которое международное сообщество рассматривает за гранью. Третий год подряд государства-члены Организации Объединенных Наций встречались в прошлом месяце, чтобы обсудить призыв к запрету и способы обеспечения того, чтобы любое дальнейшее развитие ЗАКОНов соответствовало нормам международного гуманитарного права. Однако, когда новаторские технологии изготовления оружия больше не ограничиваются несколькими крупными военными, усилия по нераспространению становятся гораздо более трудными.

Дискуссия осложняется тем фактом, что определения остаются в замешательстве. Платформы, такие как дроны, обычно путают с оружием, которое можно загружать на платформы. Идея систем, которые просят выполнить узко определенные задачи, такие как идентификация и устранение бронированных транспортных средств, движущихся в определенной географической области, не всегда отличается от идеи систем, которым предоставлены дискреционные возможности для интерпретации более общих задач, таких как «победа». война" .

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

0 Комментарии
Встроенные отзывы
Посмотреть все комментарии