
В журнале Nature вышло расследование, которое поднимает важный вопрос о прозрачности научных публикаций: в сотнях статей были обнаружены признаки использования нейросетей вроде ChatGPT — при этом авторы никак не указали этот факт. Это вызывает обеспокоенность у экспертов по научной этике и подрывает доверие к научному процессу.
В тексте многих работ встречаются типичные фразы, которые чаще всего выдает именно ИИ: например, «как языковая модель ИИ» или «сгенерировать новый ответ». Такие формулировки появляются, когда авторы копируют ответы чат-бота напрямую в статью. Исследователи, занимающиеся контролем качества публикаций, называют такие случаи недопустимыми, особенно если редакции журналов не замечают признаков вмешательства ИИ.

Инструктор по научной грамотности Алекс Глинн из Университета Луисвилля собрал базу из более чем 700 подобных статей. Он отмечает, что в некоторых случаях фразы от нейросети были удалены из текстов без каких-либо пометок о редактировании — так называемые «тихие исправления». Это нарушает один из важнейших принципов научной публикации — прозрачность изменений.
Среди журналов, в которых встречаются такие статьи, есть выпуски крупных издательств вроде Elsevier, Springer Nature и MDPI, причем речь идет не только о малозаметных журналах — были выявлены публикации и в уважаемых изданиях с высоким рейтингом.

Некоторые исследователи, включая Артура Стшелеци из Польши, также обнаружили десятки примеров скрытого использования ИИ в работах, прошедших серьезную рецензию. По его словам, это подрывает репутацию редакторов и ставит под сомнение качество научного отбора.
Издательства утверждают, что начали расследования по этим случаям и уточняют свои стратегии. Например, некоторые позволяют авторам использовать ИИ для улучшения стиля и орфографии, но запрещают подмену фактов или генерацию научных данных.

Авторы расследования подчеркивают: они не выступают против использования ИИ в целом. Напротив, они призывают к открытости. Если нейросети используются — особенно в научной работе — читатель должен понимать, на каком этапе и как именно они были задействованы.
Проблема масштабируется. Даже если снаружи все выглядит аккуратно, факт того, что ИИ может незаметно проникать в научные тексты, заставляет задуматься о новых инструментах проверки и более четких правилах для авторов и редакций. Ведь наука должна оставаться пространством доверия и доказательств, а не экспериментом с анонимными источниками и скрытыми алгоритмами.
Пока одни скрывают следы ИИ в научных статьях, другие, наоборот, внедряют его в процесс создания законов, настаивая на честности и прозрачности. В ОАЭ искусственный интеллект даже станет соавтором законодательства, обещая ускорить и улучшить работу законотворцев.