Искусственный интеллект, нейросети

Языковые модели глупеют от постов из соцсетей

Обучение больших языковых моделей на низкокачественных данных из соцсетей приводит к «деградации мозга» — модели начинают пропускать этапы логических рассуждений и давать неверные ответы.
Автор Наука Mail
Человек работает за компьютером
Ученые обучают языковые модели с помощью соцсетейИсточник: Freepik

Команда ученого Чжанъяна Вана из Техасского универститета (США) хотела изучить, как ведут себя большие языковые модели, обученные на низкокачественных данных, на коротких популярных постах в социальных сетях или на сообщениях, содержащих поверхностный или сенсационный контент. Оказалось, что в этом случае модели хуже справляются с поиском точной информации и анализом данных.

Как следует из исследования, опубликованного журналом Nature, короткие посты в качестве основного источника информации привели к ухудшению логического мышления модели. Она начала пропускать этапы рассуждения, что привело к предоставлению неверной информации и грубым ошибкам в ответах.

Голова девушки на фоне города
Нейросеть обучалась на контенте из соцсетейИсточник: Нейросеть Kandinsky

Модели обучались на постах соцсети X (ранее известная как Twitter). Эксперимент проводился на модели Llama 3. Выяснилось, что с ростом доли «мусорных» данных негативное влияние на логическое мышление модели усиливалось. Кроме того, у модели даже проявились негативные личностные черты, такие как психопатия.

Попытки улучшить модели путем корректировки инструкций или добавления качественных данных дали лишь частичный эффект. Модели продолжали пропускать шаги рассуждений. Исследователи подчеркивают особую важность отбора информации, используемой для обучения моделей ИИ. Это подтверждает изначальное мнение, что даже нейросети должны учиться на качественных данных.

Для более глубоких выводов необходимы дальнейшие исследования с моделями разных размеров, включая проприетарные, такие как ChatGPT.

Ранее Наука Mail писала о том, что повторение структуры мозга сделало ИИ эффективнее.