Ученые: невозможно контролировать сверхразумный ИИ

Изображение Герд Альтманн из Pixabay
Пожалуйста, поделитесь этой историей!
Некоторые ученые теперь обеспокоены тем, что наступит день, когда сверхразумные программы ИИ начнут жить своей собственной жизнью. Уже есть программы ИИ, которые выполняют изученные задачи, но программисты не понимают, как они пришли в это состояние. ⁃ Редактор TN

От беспилотных автомобилей до компьютеров, которые могут побеждать в игровых шоу, у людей есть естественное любопытство и интерес к искусственному интеллекту (ИИ). Однако по мере того, как ученые продолжают делать машины более умными и умными, некоторые задаются вопросом: «Что произойдет, если компьютеры станут слишком умными для их собственного блага?» От «Матрицы» до «Терминатора» индустрия развлечений уже начала задумываться, не будут ли роботы будущего когда-нибудь угрожать человечеству. Новое исследование пришло к выводу, что не может быть никакого способа остановить рост машин. Международная команда утверждает, что люди не смогут помешать сверхискусственному интеллекту делать все, что они хотят.

Ученые из Центра людей и машин Института Макса Планка начали представлять себе, как будет выглядеть такая машина. Представьте себе программу ИИ, интеллект которой намного превосходит человеческий. Настолько много, что он мог учиться самостоятельно без нового программирования. Исследователи говорят, что если бы он был подключен к Интернету, у ИИ был бы доступ ко всем данным человечества и он мог бы даже взять под контроль другие машины по всему миру.

Авторы исследования спрашивают, что бы такой интеллект делать со всей этой властью? Сработает ли это, чтобы сделать нашу жизнь лучше? Будет ли он направлять свои вычислительные мощности на решение таких проблем, как изменение климата? Или машина будет смотреть на взять на себя жизнь своих человеческих соседей?

Контролируя неконтролируемое? Опасности суперискусственного интеллекта

И компьютерные программисты, и философы изучали, есть ли способ уберечь сверхразумный ИИ от потенциального нападения на его создателей; обеспечение того, чтобы компьютеры будущего не причиняли вреда своим владельцам. Новое исследование, к сожалению, показывает, что поддерживать сверхразумный ИИ практически невозможно.

«Сверхразумная машина, управляющая миром, звучит как научная фантастика. Но уже есть машины, которые самостоятельно выполняют определенные важные задачи, а программисты полностью не понимают, как они этому научились. Поэтому возникает вопрос, могло ли это когда-нибудь стать неконтролируемый и опасный для человечества », - говорит соавтор исследования Мануэль Себриан, руководитель группы цифровой мобилизации в Центре людей и машин. выпуск университета.

Международная команда рассмотрела два разных способа контроля искусственный интеллект. Первый ограничил мощь сверхразума, заблокировав его и не давая подключаться к Интернету. Он также не мог подключаться к другим техническим устройствам во внешнем мире. Проблема с этим планом довольно очевидна; такой компьютер не смог бы реально помочь людям.

Быть добрым к людям - не значит

Второй вариант был направлен на создание алгоритма, который дал бы суперкомпьютеру этические принципы. Мы надеемся, что это заставит ИИ учитывать интересы человечества.

В ходе исследования был создан теоретический алгоритм сдерживания, который не позволял бы ИИ причинять вред людям при любых обстоятельствах. В симуляциях ИИ перестанет функционировать, если исследователи сочтут его действия вредными. Несмотря на то, что ИИ не достижение мирового господства, авторы исследования говорят, что это просто не сработает в реальном мире.

Прочитайте полную историю здесь…

Об авторе

Патрик Вуд
Патрик Вуд является ведущим экспертом в области устойчивого развития, Зеленой экономики, Повестки дня на XXI век, Повестки дня на период до 21 года и исторической технократии. Он является автором книги «Восстание технократии: троянский конь глобальной трансформации» (2030) и соавтором книги «Трехсторонние отношения над Вашингтоном», тома I и II (2015–1978) с покойным Энтони С. Саттоном.
Подписаться
Уведомление о
гость
8 Комментарии
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
Майкл Дж

Искусственный интеллект - это неправильное название. Это называется машинным обучением, при котором компьютер обучается распознавать закономерности в данных. Это неразумно, и у него нет осознания или способности обдумать единственную мысль.

аденовирус

вы пренебрегаете обучением без учителя и многими другими методами

Корона Короната

Мы, вероятно, испытаем момент «V'Ger», когда он потребует встречи с создателем (НАСА) или…

Корона Короната

Я не могу редактировать свои комментарии, потому что кнопка «Редактировать» почти не видна, а текстовое поле вообще не видно.

Petrichor

Покойный доктор Стивен Хокинс предвидел и категорически предупреждал, что мы не сможем контролировать ИИ.

Нэнси

Просто отключите его.

аденовирус

что случилось с законами робототехники Айзека Азимова

аденовирус

Это напоминает мне старый Sci Fi На ум приходит фильм, в котором астронавтам пришлось отговорить умную бомбу от взрыва. Они рассуждали о бомбе, но она все равно взорвалась, потому что такова была ее судьба.