От беспилотных автомобилей до компьютеров, которые могут побеждать в игровых шоу, у людей есть естественное любопытство и интерес к искусственному интеллекту (ИИ). Однако по мере того, как ученые продолжают делать машины более умными и умными, некоторые задаются вопросом: «Что произойдет, если компьютеры станут слишком умными для их собственного блага?» От «Матрицы» до «Терминатора» индустрия развлечений уже начала задумываться, не будут ли роботы будущего когда-нибудь угрожать человечеству. Новое исследование пришло к выводу, что не может быть никакого способа остановить рост машин. Международная команда утверждает, что люди не смогут помешать сверхискусственному интеллекту делать все, что они хотят.
Ученые из Центра людей и машин Института Макса Планка начали представлять себе, как будет выглядеть такая машина. Представьте себе программу ИИ, интеллект которой намного превосходит человеческий. Настолько много, что он мог учиться самостоятельно без нового программирования. Исследователи говорят, что если бы он был подключен к Интернету, у ИИ был бы доступ ко всем данным человечества и он мог бы даже взять под контроль другие машины по всему миру.
Авторы исследования спрашивают, что бы такой интеллект делать со всей этой властью? Сработает ли это, чтобы сделать нашу жизнь лучше? Будет ли он направлять свои вычислительные мощности на решение таких проблем, как изменение климата? Или машина будет смотреть на взять на себя жизнь своих человеческих соседей?
Контролируя неконтролируемое? Опасности суперискусственного интеллекта
И компьютерные программисты, и философы изучали, есть ли способ уберечь сверхразумный ИИ от потенциального нападения на его создателей; обеспечение того, чтобы компьютеры будущего не причиняли вреда своим владельцам. Новое исследование, к сожалению, показывает, что поддерживать сверхразумный ИИ практически невозможно.
«Сверхразумная машина, управляющая миром, звучит как научная фантастика. Но уже есть машины, которые самостоятельно выполняют определенные важные задачи, а программисты полностью не понимают, как они этому научились. Поэтому возникает вопрос, могло ли это когда-нибудь стать неконтролируемый и опасный для человечества », - говорит соавтор исследования Мануэль Себриан, руководитель группы цифровой мобилизации в Центре людей и машин. выпуск университета.
Международная команда рассмотрела два разных способа контроля искусственный интеллект. Первый ограничил мощь сверхразума, заблокировав его и не давая подключаться к Интернету. Он также не мог подключаться к другим техническим устройствам во внешнем мире. Проблема с этим планом довольно очевидна; такой компьютер не смог бы реально помочь людям.
Быть добрым к людям - не значит
Второй вариант был направлен на создание алгоритма, который дал бы суперкомпьютеру этические принципы. Мы надеемся, что это заставит ИИ учитывать интересы человечества.
В ходе исследования был создан теоретический алгоритм сдерживания, который не позволял бы ИИ причинять вред людям при любых обстоятельствах. В симуляциях ИИ перестанет функционировать, если исследователи сочтут его действия вредными. Несмотря на то, что ИИ не достижение мирового господства, авторы исследования говорят, что это просто не сработает в реальном мире.
Искусственный интеллект - это неправильное название. Это называется машинным обучением, при котором компьютер обучается распознавать закономерности в данных. Это неразумно, и у него нет осознания или способности обдумать единственную мысль.
вы пренебрегаете обучением без учителя и многими другими методами
Мы, вероятно, испытаем момент «V'Ger», когда он потребует встречи с создателем (НАСА) или…
Я не могу редактировать свои комментарии, потому что кнопка «Редактировать» почти не видна, а текстовое поле вообще не видно.
Покойный доктор Стивен Хокинс предвидел и категорически предупреждал, что мы не сможем контролировать ИИ.
Просто отключите его.
что случилось с законами робототехники Айзека Азимова
Это напоминает мне старый Sci Fi На ум приходит фильм, в котором астронавтам пришлось отговорить умную бомбу от взрыва. Они рассуждали о бомбе, но она все равно взорвалась, потому что такова была ее судьба.