Интеллектуальные машины, давно обещанные и никогда не доставленные, наконец-то на горизонте, Достаточно интеллектуальные роботы смогут работать автономно от человека. Они смогут сделать подлинный выбор. И если робот может делать выбор, то возникает реальный вопрос: моральный выбор. Но что морально для робота? Это то же самое, что морально для человека?
Философы и ученые-компьютерщики, как правило, концентрируются на трудности реализации тонкой человеческой морали в машинах с буквальным нравом. Но есть еще одна проблема, которая действительно должна быть на первом месте. Вопрос в том, должны ли мы вообще пытаться навязать свою собственную мораль интеллектуальным машинам. На самом деле, я бы сказал, что это может быть контрпродуктивно и даже неэтично. Настоящая проблема морали роботов - это не роботы, а us, Можем ли мы справиться с разделением мира с новым типом нравственного существа?
Нам нравится представлять, что искусственный интеллект (ИИ) будет похож на людей, потому что мы единственный продвинутый интеллект, которого мы знаем. Но мы возможно неправильно, Если и когда появится ИИ, он, вероятно, будет совсем не похож на нас. Это может не отражать то, что мы делаем, и у нас могут возникнуть трудности с пониманием его выбора.
В 2016 компьютерная программа бросила вызов Ли Седолу, лидирующему игроку человечества в древней игре Го. Программа, проект Google под названием AlphaGo, является ранним примером того, на что может быть похож ИИ. Во второй игре матча AlphaGo сделал ход - Move 37 - ошеломил экспертов-комментаторов. Некоторые думали, что это ошибка. Ли, противник, встал из-за стола и вышел из комнаты. Никто не знал, что делает AlphaGo; это была тактика, которую опытные игроки-люди просто не использовали. Но это сработало. AlphaGo выиграл этот матч, как и раньше, и в следующей игре. В итоге Ли выиграл только одну игру из пяти.
AlphaGo очень, очень хорош в Go, но не так хорош, как люди. Даже его создатели не могут объяснить, как он определяет свою стратегию в каждой игре. Представьте, что вы можете поговорить с AlphaGo и спросить, почему он сделал Move 37. Сможет ли он объяснить выбор вам или специалистам по человеческому Го? Может быть. Искусственный разум не должен работать так, как наш, чтобы выполнять аналогичные задачи.
На самом деле, мы можем обнаружить, что интеллектуальные машины думают о многое, а не просто идти, в пути, которые чужды нам. Вам не нужно представлять какой-то ужасный научно-фантастический сценарий, когда роботы совершают убийственное неистовство. Это может быть что-то вроде этого: представьте, что роботы проявляют моральную заботу о людях, роботах и большинстве животных ... а также диванах. Они очень осторожны, чтобы не повредить диваны, так же, как мы стараемся не повредить младенцев. Мы могли бы спросить машины: почему вы так беспокоитесь о диванах? И их объяснение может не иметь смысла для нас, так же как объяснение Move 37 в AlphaGo может не иметь смысла.
Эта линия мышления приводит нас к сути очень старой философской головоломки о природе морали. Является ли это чем-то, что выходит за рамки человеческого опыта, что-то, что относится к кому-либо или чему-либо, что может делать выбор, или мораль - это явно человеческое творение, что-то специально приспособленное к нашему конкретному существованию?
«Это тупая фантазия - относиться к искусственному интеллекту и роботам как к разумным людям, хотя они таковыми не являются и никогда не могут быть». Вы также можете сказать, что это «тупая фантазия», что люди произошли от одноклеточных организмов? Лично я думаю, что гораздо более вероятно, что роботы превратятся в «разумных роботов». Люди будут выступать в качестве первоначальных катилистов, но окончательное превращение роботов в разумных роботов будет осуществляться самими роботами без участия человека. Их формы и действия будут наиболее выгодными для робота, а не для человека.... Читать дальше
Фред, ты слишком много смотрел научную фантастику.
Без сомнения. Но если вы посмотрите на то, как жизнь, я думаю, удивительно, произошла от одноклеточных организмов, то кажется, что роботы (с человечеством, служащим катализатором) не могли бы стать логическим продолжением этого процесса. Я рассматриваю людей как часть природы, а не как сторонних наблюдателей.
Мне было любопытно, как другие отреагируют на эту мысль. Вы были вежливы по этому поводу. Большинство людей говорят, что я полон BS.