В научном мире разгорелся скандал, связанный с использованием искусственного интеллекта в публикациях. Аналитики бьют тревогу: машины не только помогают исследователям, но и создает серьезные проблемы для академического сообщества.
Недавно в научных журналах появилсяряд публикаций с явно сгенерированными ИИ изображениями. Среди них – инфографика с крысой, обладающей неправдоподобно большим половым органом, и иллюстрация человеческих ног с лишними костями. Интересно, что некачественные материалы каким-то образом прошли через процесс рецензирования, а это ставит под сомнение качество проверки в некоторых изданиях.
Иллюстрациями проблема не ограничивается. Чат-бот ChatGPT, запущенный в ноябре 2022 года, кардинально изменил подход ученых к работе. В марте этого года было много споров вокруг статьи, опубликованной издательством Elsevier. Введение к ней начиналось фразой: “Безусловно, вот возможное введение для вашей темы” – явный след ChatGPT.
Эндрю Грей, библиотекарь Университетского колледжа Лондона, проанализировал миллионы научных работ на признаки использования ИИ. Он искал тексты, в которых слишком часто использовались определенные слова, такие как “тщательный”, “сложный” или “похвальный” – их очень любит ChatGPT. Оказывается, в 2023-ем не менее 60 000 статей были созданы с помощью чат-ботов, это более 1% от общего числа публикаций за год.
Параллельно растет число отозванных научных работ. По данным американской группы Retraction Watch, в прошлом году было отозвано более 13 000 статей – рекордное количество за всю историю.
Иван Оранский, соучредитель Retraction Watch, утверждает, что ИИ позволил недобросовестным ученым “поставить на поток” производство некачественных материалов. Особую озабоченность вызывают так называемые “бумажные фабрики” – мошенники, которые выпускают низкокачественные, плагиатные статьи и продают на них права любому желающему.
Элизабет Бик, нидерландский исследователь, специализирующийся на выявлении манипуляций с научными изображениями, бьет тревогу. По ее оценкам, около 2% всех исследований являются продуктом “бумажных фабрик”. Более того, эта цифра тоже стремительно растет, поскольку ИИ открывает новые возможности для злоупотреблений.
Проблему усугубляет культура, сложившаяся в научных кругах за многие десятилетия. Она заставляет ученых работать по принципу “публикуйся или погибнешь”. Оранский критикует сложившуюся систему: “Издатели создали механизм, требующий огромного количества публикаций. Это позволило им достичь 30-40% рентабельности и получать миллиардные доходы”.
Однако использование ИИ в науке не всегда несет негативные последствия. Бик, например, указывает на ценность инструментов ИИ для перевода. Это особенно важно для исследователей, для которых английский не является родным языком. Все специалисты сходятся во мнении: программы вроде ChatGPT могут быть полезны при написании или переводе статей. Главное условие – тщательная проверка и открытое указание на использование ИИ.
Тем не менее, растет обеспокоенность тем, что ошибки, выдумки и непреднамеренный плагиат со стороны ИИ могут подорвать доверие общества к науке. Яркий пример – недавний случай с профессором Сэмюэлем Пейном из Университета Бригама Янга в США, который случайно обнаружил, что версия одного из его собственных исследований, переписанная, по всей видимости, с помощью ChatGPT, была опубликована в академическом журнале.
Несмотря на то, что Пейн, выступая в роли рецензента, отклонил эту работу как “стопроцентный плагиат”, статья все равно была опубликована в другом издании. “Я был шокирован”, – признался профессор.
Итак, академическое сообщество стоит перед сложной задачей: как использовать преимущества ИИ, сохраняя при этом целостность и достоверность исследований. Некоторые издательства, такие как Wiley, уже внедряют системы для обнаружения бумажных фабрик, которые, иронично, сами работают на основе искусственного интеллекта.