Pavel
Pavel Подписчиков: 132
Рейтинг Рейтинг Рейтинг Рейтинг Рейтинг 205

Использование ИИ просачивается в академические журналы, и его трудно обнаружить

5 дочитываний
1 комментарий
Эта публикация уже заработала 0,25 рублей за дочитывания
Зарабатывать

Наблюдатели за соблюдением этики ищут потенциально нераскрытое использование генеративного ИИ в научной литературе. Но надежного способа уловить все это пока нет.

Использование ИИ просачивается в академические журналы, и его трудно обнаружить

В АВГУСТЕиздание Resources Policy , академический журнал под эгидой издательства Elsevier, опубликовало рецензируемое исследование о том, как электронная торговля повлияла на эффективность использования ископаемого топлива в развивающихся странах. Но в отчете было скрыто любопытное предложение: «Обратите внимание, что в качестве языковой модели ИИ я не могу создавать определенные таблицы или проводить тесты, поэтому фактические результаты должны быть включены в таблицу».

У трех перечисленных авторов исследования были имена и принадлежность к университету или учреждению — они, похоже, не были языковыми моделями ИИ. Но для тех, кто играл в ChatGPT, эта фраза может показаться знакомой: генеративный чат-бот с искусственным интеллектом часто предваряет свои заявления этой оговоркой, отмечая свои недостатки в предоставлении некоторой информации. После того, как скриншот с предложением был опубликован в X, ранее Twitter, другим исследователем, Elsevier начал расследование. Издатель изучает возможность использования ИИ в этой статье и «любых других возможных случаях», — заявил Эндрю Дэвис, вице-президент по глобальным коммуникациям в Elsevier.

Политика Elsevier в отношении ИИ не запрещает использование инструментов ИИ для написания текстов, но требует раскрытия информации. Издательство использует собственные инструменты искусственного интеллекта для проверки на плагиат и полноту, но не позволяет редакторам использовать сторонние инструменты искусственного интеллекта для проверки статей.

Авторы исследования не ответили на запросы по электронной почте от WIRED о комментариях, но Дэвис говорит, что Elsevier связывался с ними и что исследователи сотрудничают. «Автор намеревался использовать ИИ для улучшения качества языка (что находится в рамках нашей политики), и они случайно оставили в тех комментариях, которые намерены прояснить», — говорит Дэвис. Издатель отказался предоставить дополнительную информацию о том, как он исправит ситуацию с Политикой ресурсов, сославшись на продолжающийся характер расследования.

Стремительный рост генеративного ИИ вызвал тревогу во всех дисциплинах. Учителя старших классов и преподаватели колледжей обеспокоены возможностью мошенничества. Новостные организации были пойманы с некачественными статьями, написанными ИИ. И теперь рецензируемые академические журналы борются с материалами, в которых авторы, возможно, использовали генеративный ИИ для написания планов, черновиков или даже целых статей, но не смогли сделать использование ИИ понятным.

Журналы используют лоскутный подход к проблеме. Сеть JAMA , в которую входят названия, опубликованные Американской медицинской ассоциацией, запрещает указывать генераторы искусственного интеллекта в качестве авторов и требует раскрытия информации об их использовании. Семейство журналов, выпускаемых Science , не позволяет использовать текст, рисунки, изображения или данные, сгенерированные ИИ, без разрешения редакторов. PLOS ONE требует от всех, кто использует ИИ, подробно описать, какой инструмент они использовали, как они его использовали и как они оценивали достоверность сгенерированной информации. Природа запретила изображения и видео, созданные ИИ, и требует использования языковых моделей. Быть раскрытым. Политика многих журналов возлагает на авторов ответственность за достоверность любой информации, сгенерированной ИИ.

Эксперты говорят, что в академическом мире необходимо соблюдать баланс при использовании генеративного ИИ — это может сделать процесс написания более эффективным и помочь исследователям более четко излагать свои выводы. Но технология, используемая во многих видах письма, также добавляла в свои ответы поддельные ссылки, выдумывала вещи и повторяла сексистский и расистский контент из Интернета, и все это было бы проблематично, если бы оно было включено в опубликованные научные статьи.

Если исследователи используют эти сгенерированные ответы в своей работе без строгой проверки или раскрытия информации, они вызывают серьезные проблемы с доверием. Нераскрытие информации об использовании ИИ будет означать, что авторы выдают генеративный ИИ-контент за свой собственный, что может быть расценено как плагиат. Они также потенциально могут распространять галлюцинации ИИ или его сверхъестественную способность придумывать вещи и констатировать их как факт.

Это большая проблема, говорит Дэвид Резник, специалист по биоэтике из Национального института наук об окружающей среде, об использовании ИИ в научной и академической работе. Тем не менее, по его словам, генеративный ИИ не так уж и плох — он может помочь исследователям, чей родной язык не английский, писать более качественные статьи. «Искусственный интеллект может помочь этим авторам улучшить качество их письма и повысить шансы на то, что их статьи будут приняты», — говорит Резник. Но те, кто использует ИИ, должны раскрывать это, добавляет он.

На данный момент невозможно узнать, насколько широко ИИ используется в академических публикациях, потому что нет надежного способа проверить использование ИИ, как это делается на плагиат. Документ «Политика ресурсов» привлек внимание исследователя, потому что авторы, кажется, случайно оставили ключ к возможному участию большой языковой модели. «На самом деле это верхушки айсберга», — говорит Элизабет Бик, консультант по вопросам научной этики, которая ведет блог Science Integrity Digest . «Я думаю, это признак того, что это происходит в очень больших масштабах».

В 2021 году Гийом Кабанак, профессор компьютерных наук Тулузского университета во Франции, обнаружил в академических статьях странные фразы вроде «поддельное сознание» вместо «искусственный интеллект». Он и его команда придумали искать « вымученные фразы » или словесный суп вместо простых терминов, как индикаторы того, что документ, вероятно, исходит от текстовых генераторов. Он также ищет статьи о генеративном ИИ в журналах и является тем, кто отметил исследование «Политика ресурсов» в X.

Кабанак исследует исследования, которые могут быть проблематичными, и отмечает потенциально нераскрытое использование ИИ. По его словам, чтобы защитить научную честность по мере развития технологий, ученые должны заниматься самообразованием. «Мы, как ученые, должны действовать, обучаясь сами, зная о мошенничестве», — говорит Кабанак. «Это игра в ударь крота. Есть новые способы обмана».

С тех пор технические достижения сделали эти языковые модели еще более убедительными и привлекательными в качестве партнера по написанию. В июле два исследователя использовали ChatGPT, чтобы за час написать целую исследовательскую работу, чтобы проверить способность чат-бота конкурировать в мире научных публикаций. Это было не идеально, но побуждение чат-бота составило документ с основательным анализом.

Это было исследование для оценки ChatGPT, но оно показывает, как эту технологию могут использовать бумажные фабрики — компании, которые печатают научные статьи по запросу — для создания более сомнительного контента. Бумажные фабрики используются исследователями и учреждениями, которые могут чувствовать необходимость публиковать исследования, но которые не хотят тратить время и ресурсы на проведение собственной оригинальной работы. С ИИ этот процесс может стать еще проще. Статьи, написанные ИИ, также могут отвлечь внимание от хорошей работы, разбавив пул научной литературы.

И проблемы могут выходить за рамки текстовых генераторов — Бик говорит, что ее также беспокоят изображения, созданные искусственным интеллектом, которыми можно манипулировать для создания мошеннических исследований. Доказать, что такие изображения ненастоящие, может быть сложно.

Некоторые исследователи хотят расправиться с нераскрытыми текстами ИИ, проверять их так же, как журналы могут проверять на плагиат. В июне Хизер Десэр, профессор химии в Канзасском университете, была автором исследования, демонстрирующего инструмент, который может с 99-процентной точностью различать научные записи, написанные человеком, и записи, созданные ChatGPT. Дезер говорит, что команда стремилась создать очень точный инструмент, «и лучший способ сделать это — сосредоточиться на узком типе письма». Другие инструменты обнаружения письма ИИ, объявленные «универсальными», обычно менее точны.

Исследование показало, что ChatGPT обычно создает менее сложный контент, чем люди, более общие в своих ссылках (используя такие термины, как другие, вместо конкретных имен групп) и использует меньше типов пунктуации. Писатели-люди чаще использовали такие слова, как « однако », «хотя» и «но» . Но исследование рассмотрело только небольшой набор данных статей Perspectives, опубликованных в Science . Дезер говорит, что требуется дополнительная работа, чтобы расширить возможности инструмента по обнаружению статей, написанных ИИ в различных журналах. Команда «больше думает о том, как ученые — если бы они хотели это использовать — использовали бы это на самом деле, — говорит Дезер, — и проверяют, можем ли мы обнаружить разницу в этих случаях».

1 комментарий
Понравилась публикация?
10 / 0
нет
0 / 0
Подписаться
Донаты ₽
Комментарии: 1
Отписаться от обсуждения Подписаться на обсуждения
Популярные Новые Старые

ИИ не смутит, если вы попросите рассказать, что чувствовал бы Пушкин, если бы он попал в то время, когда люди болели коронавирусом, ей по силам самые сложные задачки из учебников.

+1 / 0
картой
Ответить
раскрыть ветку (0)

Новое "супероружие" Путина. Британцы в панике от русских голубей биодронов

В Британии пришли в ужас от нового "супероружия" Путина. Как рассказывают агенты разведки Лондона в России образованы целые "боевые" крылатые эскадрильи, которые были якобы созданы по личному приказу Путина.

Искусственный интеллект и виртуальная реальность: главные интернет-тренды ноября 2025

В ноябре 2025 года в интернете продолжают активно обсуждать темы искусственного интеллекта и виртуальной реальности. Массовое внедрение генеративных нейросетей, которые теперь создают не только тексты,

Звёздное сияние Ижоры в Межстоличьи /Статья третья незапланированная /Интермедия.

У меня есть невыполненное обязательство перед собой. "Звездное сияние Ижоры в Межстоличьи. Часть вторая "Жар-птица"" Я действительно нашёл несколько статей, и они постоянно «висят» на экране моего монитора,...