Одно предостережение, которое я должен сделать, заключается в том, что процесс обучения ИИ потребляет буквально все в Интернете, который содержит высокий процент проснувшейся/предвзятой информации. Учиться на проснувшихся рассказах, книгах, видео и т. д. может быть достаточно, чтобы создать проснувшийся ИИ. Тем не менее, можно было бы программно устранить предвзятость сделанных выводов, но для этого не было предпринято никаких усилий. ⁃ Редактор ТН
Что делать, если решения, которые раньше принимались людьми со всеми их предубеждениями, начинают принимать алгоритмы, математически неспособные к предвзятости? Если вы рациональны, вы должны праздновать. Если вы воинствующий либерал, вы признаете в этом развитии смертельную угрозу и пытаетесь вернуть себе контроль.
Вы можете увидеть это на конференциях по искусственному интеллекту. На прошлой неделе я посетил NeurIPS 2020, ведущую международную конференцию по машинному обучению. То, что начиналось как небольшое собрание, теперь собирает достаточно людей, чтобы заполнить спортивную арену. В этом году, впервые, НейриПС требовалось, чтобы большинство документов включали заявление о «более широком воздействии» и подвергались рассмотрению советом по этике. Каждая статья, описывающая, например, как ускорить алгоритм, теперь должна иметь раздел о социальных благах и недостатках этого малоизвестного технического прогресса. «Независимо от научного качества или вклада, — говорилось в объявлении о приеме статей, — представление может быть отклонено из-за… включая методы, приложения или данные, которые создают или усиливают несправедливую предвзятость».
Это был только последний поворот храповика. Предыдущие включали переименование конференции во что-то более политкорректное и требование к участникам явным образом принять всеобъемлющий «кодекс поведения», прежде чем они смогут зарегистрироваться, что позволяет конференции исключать участников за публикацию в социальных сетях чего-то, что не одобряют официальные лица. А если серьезно, возникла целая область ИИ, специально предназначенная, среди прочего, для «устранения предвзятости» алгоритмов. Это сейчас в самом разгаре.
Я опубликовал несколько твитов с вопросами о последних изменениях — и на меня обрушилась толпа отмен. Оскорбления, насмешки, угрозы — что угодно. Вы могли бы подумать, что ученые будут выше такого поведения, но нет. Я указал, что NeurIPS является исключением из правил, требуя более широких заявлений о воздействии, и отменители неоднократно меняли тему. Я выступал против политизации ИИ, но они восприняли это как отрицание того, что какие-либо этические соображения являются обоснованными. Корпоративный директор по исследованиям в области машинного обучения, также профессор Калифорнийского технологического института, опубликовал в Твиттере для всеобщего обозрения длинный список людей, которых нужно отменить, единственное преступление которых заключалось в том, что они подписались на меня или лайкнули один из моих твитов. Та же самая толпа добилась того, что мой университет выступил с заявлением, в котором отрекся от моих взглядов и подтвердил свои либеральные взгляды.
Почему суета? Конечно, данные могут иметь предвзятость, как и ученые, работающие с данными. А алгоритмы, написанные людьми, в принципе могут делать все, что мы им скажем. Но алгоритмы машинного обучения, как почти все алгоритмы, которые вы найдете в учебниках по информатике, по сути являются просто сложными математическими формулами, которые ничего не знают о расе, поле или социально-экономическом статусе. Они не могут быть расистскими или сексистскими, как и формула y = ax + b.
Бестселлер Даниэля Канемана, Мышление, быстрая и медленная, есть целая глава о том, как алгоритмы более объективны, чем люди, и поэтому принимают лучшие решения. Однако для воинствующего либерального ума они являются выгребной ямой беззакония и должны быть очищены.
На практике очистка алгоритмов означает внесение в них предубеждений в пользу определенных групп, по сути, восстановление в автоматизированной форме социального контроля, к которому так стремятся левые политические силы. Другими словами, «устранение предвзятости» означает добавление предвзятости. Неудивительно, что это приводит к тому, что алгоритмы хуже выполняют свою предполагаемую функцию. Алгоритмы оценки кредитных карт могут отклонять более квалифицированных кандидатов, чтобы гарантировать, что будет принято одинаковое количество женщин и мужчин. Алгоритмы условно-досрочного освобождения могут рекомендовать отпустить на свободу более опасных преступников ради освобождения пропорционального числа белых и черных. Некоторые даже выступают за запрещение использования в алгоритмах всех переменных, связанных с расой или полом, на том основании, что они равнозначны красной черте. Это не только сделало бы машинное обучение и все его преимущества практически невозможными, но и особенно иронично, учитывая, что именно эти переменные нам нужны, чтобы отделить решения от тех, которые мы хотим исключить.
Если вы ставите под сомнение это или любое другое из широкого спектра либеральных требований к ИИ, вас ждет много горя. Чем более выдающегося исследователя увольняют, тем лучше, потому что это посылает самый пугающий сигнал всем остальным, особенно младшим исследователям. Джефф Дин, легендарный руководитель отдела искусственного интеллекта Google, и Янн ЛеКун, главный специалист Facebook по искусственному интеллекту и соучредитель глубокого обучения, оба нашли себя на приемной стороне неудовольствия либерального отряда.
Консерваторы до сих пор в значительной степени не обращали внимания на ускоряющееся посягательство прогрессивной политики на ИИ. Если бы ИИ все еще был неясной и незрелой областью, это могло бы быть хорошо, но время для этого давно прошло. Алгоритмы все больше управляют нашей жизнью, и они могут через черный ход навязать воинственно либеральное (на самом деле нелиберальное) общество. Каждый раз, когда вы выполняете поиск в Интернете, пользуетесь социальными сетями или получаете рекомендации от Amazon или Netflix, алгоритмы выбирают то, что вы видите. Алгоритмы помогают выбирать кандидатов на работу, избирателей, на которых нужно ориентироваться в политических кампаниях, и даже людей, с которыми приходится встречаться. И предприятия, и законодатели должны следить за тем, чтобы их не подделывали. И все мы должны быть в курсе того, что происходит, чтобы иметь право голоса. Я, например, увидев, как прогрессивисты беспечно приписывают предубеждения даже алгоритмам, которые явно не могут их иметь, начал сомневаться в ортодоксальном взгляде на человеческие предрассудки. Действительно ли мы так глубоко и непоправимо расистски и сексистски настроены, как они утверждают? Думаю, нет.
Педро Домингос — почетный профессор информатики и инженерии Вашингтонского университета.
[…] Читать оригинальную статью […]
По моим прикидкам, после того, как снесут инет (скоро), перезагрузится с GPT и Бардом и т.д. др., как наши новые и единственные параметры поисковой системы. То есть нас будут кормить тем, что они хотят, чтобы мы знали, и только тем, что они хотят, чтобы мы знали. Исчезнет фраза «Теперь вы можете свободно перемещаться по салону». Фу. Помните это? «Когда вы используете Google, вы получаете более одного ответа? Конечно, вы делаете. Ну, это ошибка. У нас больше ошибок в секунду в мире. Мы должны быть в состоянии дать вам правильный ответ... Читать дальше
Мне нравится это утверждение: «алгоритмы, математически неспособные к предвзятости». Алгоритмы — это коды, которые создают технические библиотеки. Конечно, они способны на предвзятость. Я бы сделал еще один шаг вперед, сказав, что вся цель ИИ и алгоритмов в целом состоит в том, чтобы их создатели направляли нас к их одному правилу, одному взгляду, выгодному приемлемому ответу. Что касается покупок, они, очевидно, направят наши деньги туда, куда хотят. Они не стали бы тратить на все это миллиарды, если бы не получили денежное вознаграждение. Если бы ИИ был по-настоящему беспристрастен, ни один из этих... Читать дальше
[…] Воинствующие либералы политизируют […]