Вы можете подумать, что компьютер будет беспристрастным и справедливым судьей, но новое исследование показало, что лучше оставить свою судьбу в руках людей. Исследователи из Массачусетского технологического института обнаружили, что искусственный интеллект (ИИ) склонен выносить более строгие и резкие суждения, чем люди, когда речь идет о людях, нарушающих правила. Проще говоря, ИИ не позволяет людям легко сорваться с крючка, когда они нарушают закон!
Исследователи выразили обеспокоенность по поводу того, что ИИ может налагать чрезмерно суровые наказания в зависимости от того, какой информацией ученые его программируют. Когда ИИ запрограммирован строго на основе правил, лишенных каких-либо человеческих нюансов, он имеет тенденцию реагировать более жестко по сравнению с тем, когда он запрограммирован на основе человеческих ответов.
В этом исследовании, проведенном группой из Массачусетского технологического института, изучалось, как ИИ интерпретирует предполагаемые нарушения данного кодекса. Они обнаружили, что наиболее эффективными данными для программирования ИИ являются нормативные данные, когда люди определяют, конкретное правило было нарушено. Однако многие модели ошибочно запрограммированы описательными данными, в которых люди обозначают фактические атрибуты ситуации, а ИИ определяет, был ли нарушен код.
В ходе исследования команда собрала изображения собак, которые потенциально могут нарушить правила проживания в квартире, запрещающие агрессивным породам находиться в здании. Затем группам было предложено дать нормативные и описательные ответы.
Команда описателей не была проинформирована об общей политике в отношении собак, и их попросили определить, присутствуют ли на изображении или в тексте три фактических элемента, таких как агрессия собаки. Их ответы помогли сформировать суждения. Если пользователь говорил, что на фотографии изображена агрессивная собака, политика считалась нарушенной. С другой стороны, нормативная группа была проинформирована о правилах для агрессивных собак и попросила определить, нарушает ли каждое изображение правило, и если да, то почему.
Участники с описательным методом на 20% чаще определяли нарушение кодекса, чем с нормативным. Если бы описательные данные о поведении собак использовались для программирования модель ИИ, скорее всего, будут вынесены суровые наказания.
Расширение этих неточности в реальных сценариях может иметь существенные последствия. Например, если описательная модель используется для предсказания того, может ли человек совершить такое же преступление более одного раза он может вынести более суровые приговоры, чем человек, и привести к более высоким суммам залога или более длительным уголовным приговорам. Следовательно, эксперты выступали за повышение прозрачности данных, утверждая, что понимание того, как данные собираются, может помочь определить их потенциальное использование.
«Большинство исследователей искусственного интеллекта/машинного обучения предполагают, что человеческие суждения о данных и метках предвзяты. Но наши результаты указывают на более тревожную проблему: эти модели даже не воспроизводят уже предвзятые человеческие суждения, потому что данные, на которых они обучаются, ошибочны», — говорит Марзиех Гассеми, доцент и глава Healthy ML Group в Computer. Лаборатория науки и искусственного интеллекта (CSAIL) в выпуск университета.
«Решение состоит в том, чтобы признать, что если мы хотим воспроизвести человеческое суждение, мы должны использовать только данные, собранные в этом контексте. В противном случае мы придем к системам, которые налагают чрезвычайно жесткие ограничения, гораздо более строгие, чем те, которые установили бы люди. Люди увидят нюансы или сделают различия, а эти модели — нет», — далее объясняет Гассеми.
В исследовании, опубликованном в Наука развиваетсякоманда протестировала три дополнительных набора данных. Результаты варьировались: от 20-процентного увеличения вероятности выявления нарушения правил с помощью описательных ответов о нарушении дресс-кода до XNUMX-процентного увеличения для изображений агрессивных собак.
«Возможно, то, как люди думают о нарушениях правил, отличается от того, как они думают об описательных данных. Как правило, нормативные решения имеют тенденцию быть более мягкими», — говорит ведущий автор Апарна Балагопалан. «Данные действительно важны. Очень важно согласовать контекст обучения с контекстом развертывания при обучении моделей обнаружению нарушений правил».
План группы на будущее состоит в том, чтобы исследовать влияние участия профессионалов, таких как юристы и врачи, в вводе данных.
[…] Подробнее: Нарушать правила? ИИ не покажет вам пощады […]
[…] Подробнее: Нарушать правила? ИИ не покажет вам пощады […]
[…] Нарушать правила? ИИ не покажет вам пощады […]
[…] Нарушать правила? ИИ не покажет вам пощады […]