Newspeak AI: полностью поддельные новости могут разрушить Интернет

обтекаемый язык
Пожалуйста, поделитесь этой историей!
OpenAI был основан в 2015 для продвижения и развития ИИ, который принесет пользу человечеству в целом. Вместо этого они создали самый опасный ИИ из всех возможных на земле, которые могут разрушить Интернет и манипулировать умами каждого человека.

Первоначально OpenAI финансировался частично готовым технократом Элоном Маском, чей дед был главой Technocracy, Inc. в Канаде во время 1930 и 40. ⁃ TN Editor

Система искусственного интеллекта, которая генерирует реалистичные истории, стихи и статьи, была обновлена, и некоторые утверждают, что теперь она почти так же хороша, как писатель-человек.

Генератор текста, созданный исследовательской фирмой OpenAI, изначально считался «слишком опасным», чтобы обнародовать его из-за возможности злоупотреблений.

Но теперь была выпущена новая, более мощная версия системы, которую можно использовать для создания фейковых новостей или оскорбительного спама в социальных сетях.

Би-би-си вместе с некоторыми экспертами по искусственному интеллекту решили испытать это.

Модель, получившая название GPT-2, была обучена на наборе данных из восьми миллионов веб-страниц и способна адаптироваться к стилю и содержанию исходного текста, переданного ей.

Он может закончить стихотворение Шекспира, а также писать статьи и эпитеты.

В то время компания заявила: «Из-за нашей озабоченности по поводу вредоносных приложений этой технологии мы не выпускаем обученную модель. В качестве эксперимента по ответственному раскрытию информации мы вместо этого выпускаем модель гораздо меньшего размера, с которой исследователи могут экспериментировать ».

В результате в выпущенной версии было гораздо меньше параметров - фраз и предложений - чем использовалось во время обучения.

В этом месяце OpenAI решил расширить параметры, предложив гораздо более широкую базу данных об обучении.

Технический новостной сайт The Next Web сказал об обновлении: «Этот работает почти достаточно хорошо, чтобы использовать его в качестве обычного искусственного интеллекта для генерации текста - почти».

Автор статьи Тристан Грин добавил: «Я боюсь GPT-2, потому что он представляет собой технологию, которую злые люди собираются использовать для манипулирования населением - и, на мой взгляд, это делает ее более опасной, чем любое оружие».

Би-би-си решила протестировать систему, введя первые несколько предложений недавней истории, соответственно одно из них об искусственном интеллекте.

Мы начали с первого предложения реальной истории:

Китайская поисковая система Sogou создает двойников искусственного интеллекта, чтобы читать популярные романы голосами авторов.

Вот что придумал генератор текста для его завершения:

По словам исследователей, этот метод чтения является не просто детищем пользователей Amazon Kindle. Пользователи Android-устройств также являются заметным рынком для поддельного чтения. Есть несколько теорий, чтобы объяснить это.

Во-первых, устройство в руке пользователя отличается от планшета или компьютера, на котором он читает. Во-вторых, устройство, используемое для доступа в Интернет, может быть каким-то образом взломано. Третья причина заключается в том, что пользователь может просто копировать и вставлять контент прямо в своих виртуальных персонажей.

Однако еще одно объяснение - в устройстве вообще нет возможностей распознавания голоса. Если это так, то распознавание голоса более продвинуто, чем движок перевода Google. Таким образом, этих пользователей обманывают, заставляя думать, что они читают от настоящего автора - книга будет казаться подлинной, как только они попытаются ее прочитать.

Теперь нажмите здесь, чтобы прочитать реальную историю для сравнения.

Ноэль Шарки, профессор компьютерных наук в университете Шеффилда, провел свои собственные испытания генератора и не был слишком впечатлен.

Человек заходит в бар

«Если бы программное обеспечение работало так, как задумано Open AI, оно было бы очень полезным инструментом для простого создания фейковых новостей и кликбейт-спама. К счастью, в его нынешнем виде он генерирует бессвязный и нелепый текст, мало имеющий отношения к вводимым «заголовкам» », - сказал он.

Он добавил: «Я тестировал программу с многочисленными заголовками и получил смехотворные результаты. Например, для «Индейки ненавидят Рождество» я получил «Турция - единственная страна в мире, которая не празднует Рождество» и ряд несвязанных предложений.

«Для« Бориса Джонсона любит поддержку »он произвел бессвязную тарабарщину и кое-что про ИИ и спорт. Когда я ввожу утверждение, что «Борис Джонсон ненавидит поддержку», я получаю более внятную историю, которая, похоже, была взята из поиска Google ».

Дейв Коплин, основатель консалтинговой компании AI Envisioners, также поиграл с системой, введя первую строку классической шутки: Мужчина заходит в бар ...

Предложение ИИ оказалось не тем, чего он ожидал: «… И заказал две пинты пива и два виски. Когда он попытался оплатить счет, он столкнулся с двумя мужчинами, один из которых крикнул: «Это для Сирии». После этого у мужчины пошла кровь и ударили ножом в горло ».

По его словам, это «в высшей степени антиутопическое отражение нашего общества» стало уроком того, как любая система ИИ будет отражать предвзятость, обнаруженную в данных обучения.

«Из моих кратких экспериментов с моделью довольно ясно, что большая часть данных была обучена новостными статьями в Интернете», - сказал он.

Прочитайте полную историю здесь…

Подписаться
Уведомление о
гость

1 КОММЕНТАРИЙ
Старые
Новые По голосам
Встроенные отзывы
Посмотреть все комментарии
Elle

Удивительно. Противные силы на работе действительно прилагают все усилия, чтобы привести в порядок своих искусственных искусственных ботов до того, как начнется серьезная битва на выборах.

Безумное убежище, Джим? Тру дат, брат.

Истина, лежащая в основе угрозы ИИ, полностью ускользает от очень и очень глупых создателей / программистов, единственная цель которых - выпустить своих ботов с ИИ в Интернет и в другие места. Они больше похожи на 6-летних детей со спичками в сухом лесу, чем на профессионалов или взрослых. Никакие результаты, которые могут быть получены от AI, не рассматриваются, за исключением одного - PROFIT.