Эрик Шмидт: ИИ так же силен, как ядерное оружие

Пожалуйста, поделитесь этой историей!
Эрик Шмидт — ведущий мировой технократ и наследник Генри Киссинджера, оба члена элитарной Трехсторонней комиссии, являющейся истоком современной технократии. Сравнивать ИИ с ядерными бомбами неправильно, потому что ядерные бомбы на самом деле разрушают материю, в то время как ИИ все еще пытается вести машину по прямой. Сигнализирует ли Шмидт, что ИИ станет оружием массового уничтожения? ⁃ Редактор ТН

Бывший генеральный директор Google Эрик Шмидт сравнил ИИ с ядерным оружием и призвал к режиму сдерживания, подобному взаимно гарантированному уничтожению, которое удерживает самые могущественные страны мира от уничтожения друг друга.

Шмидт говорил об опасностях ИИ на Aspen Security Forum в панель по национальной безопасности и искусственному интеллекту 22 июля. Отвечая на вопрос о ценности морали в технологиях, Шмидт объяснил, что он сам был наивен в отношении силы информации в первые дни существования Google. Затем он призвал технологии быть лучше в соответствии с этикой и моралью людей, которым они служат, и провел странное сравнение между ИИ и ядерным оружием.

Шмидт представил себе ближайшее будущее, в котором Китаю и США необходимо закрепить договор об искусственном интеллекте. «В 50-х и 60-х годах мы в конце концов создали мир, в котором не существовало правила «не удивляться» ядерным испытаниям, и в конечном итоге они были запрещены», — сказал Шмидт. «Это пример баланса доверия или отсутствия доверия, это правило «без неожиданностей». Я очень обеспокоен тем, что отношение США к Китаю как к коррумпированному, коммунистическому или какому-то еще, а китайское отношение к Америке как к неудачнику… позволит людям сказать: «Боже мой, они что-то замышляют», а затем начать что-то вроде этого. загадки. Начните что-то, когда вы вооружаетесь или готовитесь, а затем активируете другую сторону. У нас никто не работает над этим, и тем не менее ИИ такой мощный».

ИИ и машинное обучение — это впечатляющая технология, которую часто неправильно понимают. Он, в основном, не так умен, как люди думают. Это может выйти из строя произведения искусства на уровне шедевров, бить людей в Starcraft IIи совершать элементарные телефонные звонки для пользователей. Однако попытки заставить его выполнять более сложные задачи, такие как вождение автомобиля по крупному городу, дела идут не так хорошо.

Шмидт представил себе ближайшее будущее, в котором и у Китая, и у США будут проблемы с безопасностью, которые заставят их заключить своего рода договор о сдерживании вокруг ИИ. Он говорит о 1950-х и 60-х годах, когда дипломатия создала серию средств контроля над самым смертоносным оружием на планете. Но чтобы мир дошел до того, что он учредил Договор о запрещении ядерных испытаний, ОСВ-XNUMX и другие важные законодательные акты, потребовались десятилетия ядерных взрывов и, что особенно важно, разрушение Хиросимы и Нагасаки.

Два японских города, разрушенных Америкой в ​​конце Второй мировой войны, унесли жизни десятков тысяч людей и доказали миру вечный ужас ядерного оружия. Затем правительства России и Китая поспешили приобрести оружие. То, как мы живем с возможностью того, что это оружие будет использовано, — это так называемое взаимное гарантированное уничтожение (MAD), теория сдерживания, которая гарантирует, что если одна страна запустит ядерное оружие, то, возможно, это сделает и любая другая страна. Мы не используем самое разрушительное оружие на планете из-за возможности того, что это уничтожит, по крайней мере, цивилизацию по всему миру.

Несмотря на красочные комментарии Шмидта, мы не хотим и не нуждаемся в MAD для ИИ. Во-первых, ИИ далеко не так разрушительен, как ядерное оружие. Но люди во власти бойтесь этой новой технологии и, как правило, по всем неправильным причинам. Люди даже предложили предоставление контроля ядерного оружия к ИИ, теоретизируя, что они будут лучшими судьями в его использовании, чем люди.

Проблема с ИИ не в том, что он обладает потенциально разрушительной силой ядерного оружия. Дело в том, что ИИ хорош настолько, насколько хороши люди, которые его разработали, и что они отражают ценности своих создателей. ИИ страдает от классической проблемы «мусор на входе — мусор на выходе»: расистские алгоритмы делают расистские роботы, весь ИИ несет в себе предубеждения своих создателей, а чат-бот, обученный на 4chan становится мерзким.

Это то, что Демис Хассабис — генеральный директор DeepMind, который обучил ИИ, который побеждает Starcraft II игроков — кажется, понимает лучше, чем Шмидт. В июльском интервью для подкаста Лекса Фридмана Фридман спросил Хассабиса, как можно контролировать такую ​​мощную технологию, как ИИ, и как сам Хассабис может избежать коррупции со стороны власти.

Прочитайте полную историю здесь…

О редакторе

Патрик Вуд
Патрик Вуд является ведущим экспертом в области устойчивого развития, Зеленой экономики, Повестки дня на XXI век, Повестки дня на период до 21 года и исторической технократии. Он является автором книги «Восстание технократии: троянский конь глобальной трансформации» (2030) и соавтором книги «Трехсторонние отношения над Вашингтоном», тома I и II (2015–1978) с покойным Энтони С. Саттоном.
Подписаться
Уведомление о
гость

4 Комментарии
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии

[…] Эрик Шмидт: ИИ так же силен, как ядерное оружие […]

[…] Эрик Шмидт: ИИ так же силен, как ядерное оружие […]

[…] ИСТОЧНИК: ЭРИК ШМИДТ: L'IA EST AUSSI PUISSANTE QUE LES ARMES NUCLÉAIRES […]

[…] is wellicht de moeite om daar naar te luisteren. Из hij de oplossing heft есть een andere vraag. Technocracy News, что он получил вице-главу сверхгеномена, omschrijft de grote techspeler namelijk als een […]