Инженеры используют когнитивную психологию, чтобы выяснить, как думают ИИ, и сделать их более ответственными.
У инженеров искусственного интеллекта есть проблема: они часто не знаю о чем думают их творения.
По мере усложнения и распространенности искусственного интеллекта он также становится все более мощным. А я уже учел решения о кто идет в тюрьму и кто получает кредит, Есть предложения, которые AI должен определить кто получает лучший шанс жить, когда автомобиль с автоматическим управлением сталкивается с неизбежной аварией.
Определение ИИ является скользким и все более растущим, поскольку стартапы навязывают модное слово всему, что они делают. Это общепринято как любая попытка обезвредить человеческий интеллект и способности. Одна из подмножеств, которая взлетела, - это нейронные сети, системы, которые «обучаются», как люди, обучаясь, превращая опыт в сети имитируемых нейронов. В результате получается не код, а нечитаемая запутанная масса миллионов, в некоторых случаях миллиардов искусственных нейронов, что объясняет, почему те, кто создают современные ИИ, могут быть озадачены тем, как они решают задачи.
Большинство исследователей согласны с проблема понимания ИИ нажимает. Если мы не знаем, как работает искусственный разум, как мы можем определить его предубеждения или предсказать его ошибки?