
С ростом числа сгенерированных текстов добровольцы Википедии начали работать как единая иммунная система, объясняет директор по продукту Фонда Викимедиа Маршалл Миллер. Цель — сохранить нейтральность и достоверность материалов.
Одним из главных инструментов стал механизм быстрого удаления плохо написанных статей. Если раньше на обсуждение удаления отводили семь дней, теперь администраторы могут удалить материал сразу, если он явно создан ИИ и не был проверен человеком, сообщает The Verge.
Редакторы ищут три основных признака: стандартный ответ чат-бота к читателю вроде «Вот ваша статья о…», фиктивные или бессмысленные ссылки на авторов и издания, а также несуществующие источники — от «мертвых» ссылок до неверных ISBN и DOI.

Существуют и дополнительные маркеры, собранные в рамках проекта WikiProject AI Cleanup. Это чрезмерное употребление некоторых союзов, рекламные прилагательные вроде «захватывающий», неправильный формат кавычек и даже «любовь» к длинным тире.
Фонд Викимедиа не запрещает искусственный интеллект полностью: он помогает находить правки с признаками галлюцинаций и может автоматизировать рутинные задачи.
Ранее мы писали, как Википедия заморозила тест ИИ-резюме после критики редакторов — эксперимент с краткими сводками продлился всего сутки и вызвал серьезные споры о доверии к платформе.

