Что если робот решит, что ненавидит тебя?
Это может показаться глупым вопросом, но, согласно исследованиям, развитие предубеждений по отношению к другим не требует высокого уровня когнитивных способностей и может быть легко продемонстрировано роботами и другими искусственно интеллектуальными машинами.
В исследовании, проведенные экспертами по информатике и психологии из Университета Кардиффа и Массачусетского технологического института, показали, что группы автономных машин могут демонстрировать предубеждение, просто идентифицируя, копируя и изучая поведение друг друга. Результаты были опубликованы в журнале природа.
Роботы способны формировать предрассудки так же, как люди.
In пресс-релизИсследовательская группа объяснила, что, хотя может показаться, что человеческое познание потребуется для формирования мнений и стереотипирования других, похоже, что это не так. Предубеждение, похоже, не является специфическим явлением для человека.
Некоторые типы компьютерных алгоритмов уже продемонстрировали предрассудки, такие как расизм и сексизм, которые машины извлекают из публичных записей и других данных, генерируемых людьми. В двух предыдущих случаях ИИ, демонстрирующих такие предубеждения, чат-роботы Microsoft Tay и Zo были закрыты после того, как люди научили их высказывать расистские и сексистские высказывания в социальных сетях.
Это означает, что роботы могут быть такими же ненавистными, как и люди. И поскольку они в тысячи раз умнее нас, можете ли вы представить себе будущее, если они проявят предвзятость против человечества?
Никакого человеческого участия не требуется.
Роботам не нужно учить людей не любить определенных людей.
Тем не менее, это исследование показало, что ИИ не нуждается в провокации и вдохновении троллей, чтобы заставить его проявлять предрассудки: он способен сформировать их всех сам.
Чтобы провести исследование, команда настроила компьютерное моделирование того, как предубежденные люди могут сформировать группу и взаимодействовать друг с другом. Они создали игру «давай и бери», в которой каждый бот AI принимал решение о том, делать пожертвование другому человеку в своей рабочей группе или другой группе. Решения были приняты на основе репутации каждого человека и его стратегии пожертвования, в том числе их уровня предубеждения по отношению к лицам в внешних группах.
По мере того, как игра развивалась, и суперкомпьютер собирал тысячи симуляторов, каждый начал изучать новые стратегии, копируя другие либо в своей группе, либо среди всего населения.
Соавтор исследования профессор Роджер Уитакер из Исследовательского института преступности и безопасности Кардиффского университета и Школы информатики и информатики, сказал из выводов:
Выполняя эти симуляции тысячи и тысячи раз, мы начинаем понимать, как развиваются предрассудки и условия, которые способствуют или препятствуют ему.
Выводы включают людей, обновляющих свои уровни предубеждений, преимущественно копируя те, которые получают более высокие краткосрочные выплаты, а это означает, что эти решения не обязательно требуют передовых когнитивных способностей.
Возможно, что в будущем автономные машины, способные идентифицировать себя с дискриминацией и копировать других, могут быть подвержены предрассудкам, которые мы наблюдаем в человеческой популяции.
Многие из разработок ИИ, которые мы наблюдаем, включают в себя автономность и самоконтроль, что означает, что на поведение устройств также влияют окружающие. Транспортные средства и Интернет вещей - два недавних примера. Наше исследование дает теоретическое понимание того, как симулируемые агенты периодически обращаются к другим за каким-то ресурсом. (источник)
Автономность и самоконтроль. Разве это не то, что произошло в Терминатор франшизы?
Мускус добавил, «С помощью искусственного интеллекта мы вызываем демона».