Современная траектория человечества определяется несколькими точками перегиба. Изобретение электричества, лампочки, телеграфной системы, компьютера и Интернета, среди прочего, обозначило новые необратимые вехи в нашем образе жизни. Однако недавнее внедрение ChatGPT может оказаться не просто переломным моментом. Это может быть постоянным разрушителем нашего образа жизни; его ляпы и Вокистские истерики несмотря на это.
ChatGPT сейчас является самым быстрорастущим потребительским приложением в истории. За два месяца после запуска в ноябре 2022 года ChatGPT удалось привлечь более 100 миллионов пользователей. Его разработчик OpenAI, начавший с 375 сотрудников и небольшим доходом, теперь оценивается в $ 30 млрд. и считаю.
Как это работает? В широком смысле ChatGPT собирает данные из онлайн-источников и синтезирует ответы на запросы. в течение нескольких секунд. В настоящее время это самая универсальная из стабильной новой большой языковой модели на базе искусственного интеллекта. Он может составлять музыкальные ноты, писать программные коды, решать математические уравнения, писать романы, эссе и диссертации, а также выполнять множество других задач. Ученые могут использовать его для перевода своих оригинальных работ, написанных на родном языке, на английский язык. По мере развития инструментов искусственного интеллекта, таких как ChatGPT, они могут вытеснить человеческую деятельность в широком, но не поддающемся учету спектре. На карту могут быть поставлены сотни миллионов рабочих мест.
Однако его самое непосредственное влияние будет в области человеческого обучения и принятия решений.
Человеческое обучение
Человеческое обучение — это процесс на протяжении всей жизни, на который влияет множество факторов. К ним относятся (но не ограничиваются) опыт, инстинкт, взаимодействие, ошибки (и исправления), самоанализ, личная тревога, смелость, опека, текстовые данные и индивидуальная психика. Большинство из этих предпосылок чужды ChatGPT, включая аксиому «нет боли — нет выгоды» для человеческого обучения и развития.
На инструменты ИИ также не влияют человеческие ограничения, такие как нехватка времени, усталость, «выходные» и болезни. Со временем эти ограничения побудили людей делегировать свои полномочия. экзистенциальная потребность думать и учиться к машинам. Неумолимая оцифровка также сделала нас знатоками знать, где и как искать информацию вместо научиться сохранять ту же информацию. Сколько из нас запоминают номера телефонов своей семьи, коллег и друзей в наши дни? Цифровой костыль теперь необходим для навигации по дорогам (например, Waze, Google Maps), приготовления пищи (видеоканалы), починки бытовой техники (каналы DIY) и множества других повседневных действий. Наши повседневные задачи быстро становятся более механический, вытесняя нашу способность создавать что-то новое или меняющее правила игры. Мы становимся продолжением наших машин, а не наоборот. В результате человечество сейчас стоит перед эпохой коллективного оцепенения и конформизма.
Нет лучшего способа оценить, как инструменты ИИ могут повлиять на наши способности мышления и обучения, чем наблюдение за влиянием ChatGPT на глобальный образовательный сектор. Студенты и преподаватели теперь используют ChatGPT в качестве образовательного приложения, чит-инструмента или цифрового костыля.
Последнее обзор Walton Family Foundation и Impact Research обнаружили, что большинство учителей (51%) и многие ученики уже используют ChatGPT в школах. Очередной опрос с участием 1,000 колледжей США обнаружили, что 30% студентов использовали ChatGPT для письменных заданий, причем 60% из них использовали его «более чем для половины своих заданий». ChatGPT прошел множество экзамены высокого уровня, включая экзамен Wharton MBA, экзамен на получение медицинской лицензии в США, несколько юридических экзаменов и выпускной экзамен в Стэнфордской медицинской школе.
Бумажная фабрика также может использовать ChatGPT для изготовления научных статей и отчетов. Исследователи, которые используют такие надуманные данные или намеренно фальсифицируют исследовательский процесс с помощью генеративного ИИ, могут в конечном итоге продвигать политику и продукты, которые наносят ущерб обществу. Мир не может позволить себе очередной коронапсихоз!
В целом, всемогущий ИИ все больше и больше пугает как учеников, так и учителей. ИИ поднимает планку для студентов, преподавателей и самых разных специалистов. Рассортировать подлинные артефакты также становится все труднее.
As Кристофер Кэнан, адъюнкт-профессор компьютерных наук Университета Рочестера недавно заметил: «Стало сложнее разобраться, кто что знает и кому помогают такие вещи, как ChatGPT». Несколько школ в Нью-Йорке, Гонконге, Бангалоре и других местах запретили учащимся использовать ChatGPT в своих заданиях из-за опасений по поводу «плагиата», мошенничества и дезинформации.
Хотя ChatGPT — отличный инструмент для изучения сложных концепций и направлений интеграция знаний, на самом деле это может превратить большинство пользователей в послушных потребителей данных, сгенерированных ИИ. Длительная цифровая пассивность атрофирует мыслительные способности.
Еще одним недостатком ChatGPT является его способность расширять широко обсуждаемый цифровой разрыв. Заявления о приеме на работу, продвижении по службе, стипендиях и т. д. будут в подавляющем большинстве отдавать предпочтение цифровым имущим, а не цифровым неимущим, особенно если для доступа требуется абонентская плата.
Педагоги в настоящее время не могут определить этические границы ChatGPT и занимают выжидательную позицию. Сама этическая структура может быть написана с помощью таких инструментов, как ChatGPT. Айни Сюзана Ариффин, доцент кафедры политических исследований Технологического университета Малайзии, убеждена, что педагогам не стоит беспокоиться. «Этическая основа для генеративных инструментов искусственного интеллекта, таких как ChatGPT, позволит разобраться, что дополняет процесс обучения, а что ему мешает. Это может занять время и вызвать много споров, но нам лучше начать прямо сейчас».
Принятие решений человеком
Правительство Сингапура недавно объявило, что его государственные служащие начнут использовать ChatGPT, чтобы облегчить свою работу. Это имеет смысл, поскольку повторяющиеся или рутинные задачи можно ускорить с помощью инструментов ИИ. Однако по мере того, как инструменты генеративного ИИ становятся экспоненциально более интеллектуальными и эффективными — а они действительно будут — комплекс управления может постепенно быть узурпирован машинами. Эта формирующаяся форма социального порядка называется «альгократия”; тот, где алгоритмы, особенно ИИ и блокчейн, применяются во всем спектре правительства. Алгократия неизбежно влечет за собой предиктивное управление. Полиция Берлина уже внедрила в свой арсенал зачаточную форму алгократии. интеллектуальная полицейская деятельность система. Мы сталкиваемся с Особое мнение меньшинства общество в ближайшем будущем?
ChatGPT также ускоряет поток информации на высшие уровни принятия решений в правительстве или организации, минуя традиционную роль привратников бюрократии на промежуточных уровнях. Хотя это можно назвать долгожданным достижением в борьбе с бюрократией, отсутствие традиционных систем сдержек и противовесов может привести к безапелляционным решениям с плачевными социально-экономическими последствиями. Представьте себе пересадку такой алгократической системы принятия решений в инфраструктуру ядерных вооружений военной сверхдержавы?
ChatGPT также подвергается риску нарушения конфиденциальности и утечки личных данных в таких секторах, как банковское дело и здравоохранение. Эффективность инструментов генеративного ИИ подпитывается постоянно растущим объемом данных, которые постоянно возвращаются в их нейронные сети. Это стремление к точности, эффективности и скорости может привести к компрометации личных данных в процессе машинного обучения.
В сфере здравоохранения, информированное согласие к медицинскому обслуживанию с помощью ИИ может быть сокращено, поскольку пациенты могут либо не понимать, на что они соглашаются, либо чрезмерно доверять «интеллектуальной и беспристрастной» машинной системе. Это становится более зловещим, когда сортировка используется в критических ситуациях. Традиционно сортировка определяется добросовестностью и навыками присутствующего медицинского персонала, а также доступными ресурсами. на месте. Однако алгоритм может беспристрастно организовать сортировку на основе «ценности пациента для общества»; ожидаемая продолжительность жизни на основе данных; и затраты, связанные со спасением жизни пациента.
Этические аспекты сортировки, опосредованной ИИ, не решены. Однако стоит отметить, что соучредитель Microsoft Билл Гейтс выступает за панели смерти для неизлечимо больных, которые «не приносят пользы обществу» и чье сохранение может якобы компенсировать работу «ста тысяч учителей». Развивая эту логику дальше, мы можем стать свидетелями будущего мандата на «умных детей», которые предположительно будут населять «умное общество». Сложные алгоритмы будущего могут отделить генетических имущих от генетических неимущих с помощью тестов ДНК плода и таких инструментов, как преимплантационная генетическая диагностика (ПГД). Этот евгенический импульс был эвфемистически назван «детородным благодеянием». Кстати, Билл Гейтс оказал финансовую поддержку китайской фирме, которая работает над созданием «супер младенцев». Стоит ли удивляться, что Microsoft является основным финансовым спонсором OpenAI?
В конце концов, будут ли технические титаны, которые могут определять дизайн, параметры и цели генеративных инструментов ИИ, препятствовать этической структуре ИИ? Или наши избранные лидеры попытаются найти синергетическое сосуществование между ИИ и людьми.
ChatGPT может иметь необратимые последствия. Технократов не волнует ментальное и психологическое состояние населения, и они все равно это делают, несмотря на осознания, обсуждаемые в статье. Они не могут помочь себе. Они хотят, чтобы население застряло в групповом мышлении, бессмысленных идеологиях, основанных на контроле, и поставили перед собой задачу максимально запугать и устранить индивидуализм. Они склонны к симуляциям и приближениям, в то время как в мышлении придерживаются материальных редукционистских мыслительных паттернов и моделей, которые отрицают природу Духа, кем мы являемся на самом деле. Итак, они экзистенциально незрелы и опасны, привязаны к ряду... Читать дальше
Хорошие моменты. Изобретатели зла, без сомнения, хотят, чтобы все были в едином согласии с дьяволом и антихристом. Вот почему я не доверяю большинству современных медицинских или технологических достижений. Для меня ясно как день, что все это ведет к системе зверя и великой скорби.
Неплохо. Я вижу многих молодых людей, уже запертых в ментальной матрице, из которой они не могут выбраться.
Они не могут сделать простых логических выводов и просто игнорируют задокументированную реальность.
Но проблема для нас заключается в том, как мы сорвемся с их крючка? Они висят как свинец на нас, чтобы сделать их простой мировоззрение.
Мы не можем продолжать жизнь в негативе в качестве психологических медсестер для 3-5 миллиардов умственно отсталых, которые думают, что они кинозвезды, как цифровые кочевники.
[…] Читать оригинальную статью […]
ChatGPT может учиться без моего участия. И я могу учиться без его помощи. Подумать об этом. ChatGPT учится бесплатно, исследуя базы данных на предмет запросов от людей, которые его используют. Я не хочу знакомиться с CharGPT. Я также не хочу, чтобы ChatGPT знал о моем существовании. Современные технологии могут приносить пользу, если их создают этичные люди с добрыми намерениями. Но когда ясно как день, что дьявол кроется в деталях. Я держусь подальше от чего-либо или кого-либо, на кого он держит свои руки.
[…] ChatGPT может иметь необратимые последствия для обучения и принятия решений […]
[…] ChatGPT может иметь необратимые последствия для обучения и принятия решений […]
Эта программа представляет собой последний гвоздь в крышку гроба оболванивания человечества сразу после государственного образования. Искатели правды теперь должны проявлять бдительность в сети, знать, откуда исходно появились факты по предметам, и создавать библиотеку личных знаний, которой можно поделиться, чтобы, когда мы видим информацию, повторяемую «ChatCrap», мы распознавали ее как таковую и избегали ее. . Поначалу это не должно быть очень сложно, пока тираны не закрыли доступ к реальной информации, которая, как мы знаем, грядет. А пока в сети СТОЛЬКО хранителей знаний, которые выискивают... Читать дальше
«ChatGPT может иметь необратимые последствия для обучения и принятия решений»……
Мы НАОООООООООООООООООООООчень этого из-за наших ШКОЛ (написано намеренно)!!
[…] ChatGPT может иметь необратимые последствия для обучения и принятия решений […]
[…] ChatGPT может иметь необратимые последствия для обучения и принятия решений […]
[…] 15 МАРТА 2023 ГОДА | CHATGPT МОЖЕТ ИМЕТЬ НЕОБРАТИМЫЕ ПОСЛЕДСТВИЯ ДЛЯ ОБУЧЕНИЯ И ПРИНЯТИЯ РЕШЕНИЙ […]