По словам организаторов конференции, инструменты ИИ можно использовать для «редактирования» и «шлифовки» работ авторов, но текст, «полностью созданный» ИИ, запрещен. В связи с этим возникает вопрос: где вы проводите грань между редактированием и написанием?
Одна из самых престижных в мире конференций по машинному обучению запретила авторам использовать инструменты искусственного интеллекта, такие как ChatGPT, для написания научных статей, что вызвало дебаты о роли текста, сгенерированного искусственным интеллектом, в научных кругах.
Международная конференция по машинному обучению (ICML) объявила об этой политике ранее на этой неделе, заявив: «Документы, содержащие текст, сгенерированный с помощью крупномасштабной языковой модели (LLM), такой как ChatGPT, запрещены, если созданный текст не представлен как часть экспериментальный анализ статьи». Новости вызвали широкое обсуждение в социальных сетях, где ученые и исследователи ИИ защищают и критикуют эту политику. На это отреагировали организаторы конференции. публикация более длинного заявления объясняя свое мышление. (ICML ответил на запросы Грань для комментариев, направив нас к этому же заявлению.)
По данным ICML, появление общедоступных языковых моделей ИИ, таких как ChatGPT — чат-бота общего назначения, который запущен в Интернете в ноябре прошлого года — представляет собой «захватывающее» развитие событий, которое, тем не менее, сопровождается «непредвиденными последствиями [и] вопросами без ответов». ICML говорит, что они включают вопросы о том, кто владеет выходом таких систем (они обучаются на общедоступных данных, которые обычно собираются без согласия, а иногда повторяют эту информацию дословно), и следует ли текст и изображения, созданные ИИ, «рассматривать как новые или просто производные от существующей работы».
Последний вопрос связан с каверзным спором об авторстве — то есть о том, кто «пишет» сгенерированный ИИ текст: машина или ее человек-контролер? Это особенно важно, учитывая, что ICML запрещает только текст, «полностью созданный» ИИ. Организаторы конференции утверждают, что не запрет на использование таких инструментов, как ChatGPT, «для редактирования или полировки написанного автором текста», и обратите внимание, что многие авторы уже использовали для этой цели «полуавтоматические инструменты редактирования», такие как программное обеспечение для исправления грамматики Grammarly.
«Несомненно, что со временем на эти и многие другие вопросы будут даны ответы, поскольку эти крупномасштабные генеративные модели получают более широкое распространение. Однако ни на один из этих вопросов у нас пока нет четких ответов», — пишут организаторы конференции.
В результате ICML заявляет, что в следующем году его запрет на текст, сгенерированный ИИ, будет пересмотрен.
Однако вопросы, которые решает ICML, не могут быть легко решены. Доступность инструментов искусственного интеллекта, таких как ChatGPT, вызывает путаницу у многих организаций, некоторые из которых ответили собственными запретами. В прошлом году кодирование сайта вопросов и ответов Stack Overflow запретил пользователям отправлять ответы, созданные с помощью ChatGPT, а Департамент образования Нью-Йорка только на этой неделе заблокировал доступ к инструменту для всех в своей сети.
В каждом случае существуют разные опасения по поводу вредного воздействия текста, сгенерированного ИИ. Одним из наиболее распространенных является то, что выход этих систем просто ненадежен. Эти инструменты ИИ представляют собой обширные системы автозаполнения, обученные предсказывать, какое слово следует за следующим в любом заданном предложении. Таким образом, у них нет жестко запрограммированной базы данных «фактов», на которые можно опереться — только возможность писать правдоподобно звучащие заявления. Это означает, что они склонны выдавать ложную информацию за правду так как данное предложение звуки правдоподобность не гарантирует ее фактичности.
В случае запрета ICML на текст, сгенерированный ИИ, еще одна потенциальная проблема заключается в том, чтобы провести различие между текстом, который был только «отшлифован» или «отредактирован» ИИ, и текстом, который был «полностью создан» этими инструментами. В какой момент несколько небольших исправлений под управлением ИИ составляют большую переделку? Что, если пользователь попросит инструмент искусственного интеллекта резюмировать свою статью в краткой аннотации? Считается ли это свежесгенерированным текстом (поскольку текст новый) или простой полировкой (поскольку это краткое изложение слов, написанных автором)?
Это похоже на принятие в 1905 году закона, разрешающего использование автомобилей, но только если они запряжены лошадью.
ЗАПРЕЩАЕТ авторам использовать инструменты ИИ! Удачи с этим. А О Джей Симпсон все еще ищет настоящего убийцу.
Я как раз слушал ваш Quickening Report на эту тему и решил прокомментировать здесь. (1) Вы указываете, что ChatGPT может выполнять глубокие подделки голоса за кадром для видео. Это также может быть пропагандистской уловкой, чтобы субъекты Глубинного государства могли отрицать то, что они действительно сказали, на видеодоказательствах, которые мы собираем. (2) Единственное, в чем я могу быть уверен, так это в том, что я не знаю, что находится на другом конце интерфейса. Кто или что этот человек за занавеской? Когда это ИИ, человек или пропагандист? См. также понятие «Механический».... Читать дальше