Следы ChatGPT: сотни научных публикаций с признаками ИИ без упоминания

Пока одни спорят о честном использовании нейросетей, другие уже тихо внедряют их в научные статьи. Но что будет, когда этот скрытый обман раскроется и подорвет доверие к научным исследованиям?
Владимир Барышев
Автор Наука Mail
Манекен с повязкой на глазах
Технологии меняют научный процесс, ставя под сомнение его прозрачность и честностьИсточник: Unsplash

В журнале Nature вышло расследование, которое поднимает важный вопрос о прозрачности научных публикаций: в сотнях статей были обнаружены признаки использования нейросетей вроде ChatGPT — при этом авторы никак не указали этот факт. Это вызывает обеспокоенность у экспертов по научной этике и подрывает доверие к научному процессу.

В тексте многих работ встречаются типичные фразы, которые чаще всего выдает именно ИИ: например, «как языковая модель ИИ» или «сгенерировать новый ответ». Такие формулировки появляются, когда авторы копируют ответы чат-бота напрямую в статью. Исследователи, занимающиеся контролем качества публикаций, называют такие случаи недопустимыми, особенно если редакции журналов не замечают признаков вмешательства ИИ.

Книга
Технологии становятся все более заметными, но их использование не всегда раскрыто в научных статьяхИсточник: Unsplash

Инструктор по научной грамотности Алекс Глинн из Университета Луисвилля собрал базу из более чем 700 подобных статей. Он отмечает, что в некоторых случаях фразы от нейросети были удалены из текстов без каких-либо пометок о редактировании — так называемые «тихие исправления». Это нарушает один из важнейших принципов научной публикации — прозрачность изменений.

Среди журналов, в которых встречаются такие статьи, есть выпуски крупных издательств вроде Elsevier, Springer Nature и MDPI, причем речь идет не только о малозаметных журналах — были выявлены публикации и в уважаемых изданиях с высоким рейтингом.

Листы бумаги на доске
Искусственный интеллект может нарушать научную этику, если его использование не раскрыто должным образомИсточник: Freepik

Некоторые исследователи, включая Артура Стшелеци из Польши, также обнаружили десятки примеров скрытого использования ИИ в работах, прошедших серьезную рецензию. По его словам, это подрывает репутацию редакторов и ставит под сомнение качество научного отбора.

Издательства утверждают, что начали расследования по этим случаям и уточняют свои стратегии. Например, некоторые позволяют авторам использовать ИИ для улучшения стиля и орфографии, но запрещают подмену фактов или генерацию научных данных.

Стол с предметами
Прозрачное использование ИИ может значительно повысить доверие к научным исследованиям и улучшить качество получаемых результатовИсточник: Freepik

Авторы расследования подчеркивают: они не выступают против использования ИИ в целом. Напротив, они призывают к открытости. Если нейросети используются — особенно в научной работе — читатель должен понимать, на каком этапе и как именно они были задействованы.

Проблема масштабируется. Даже если снаружи все выглядит аккуратно, факт того, что ИИ может незаметно проникать в научные тексты, заставляет задуматься о новых инструментах проверки и более четких правилах для авторов и редакций. Ведь наука должна оставаться пространством доверия и доказательств, а не экспериментом с анонимными источниками и скрытыми алгоритмами.

Пока одни скрывают следы ИИ в научных статьях, другие, наоборот, внедряют его в процесс создания законов, настаивая на честности и прозрачности. В ОАЭ искусственный интеллект даже станет соавтором законодательства, обещая ускорить и улучшить работу законотворцев.