
Работа, опубликованная в The Conversation, поднимает важный вопрос: действительно ли нейросети вроде ChatGPT способны «понимать» язык, как это делает человек? Автор — исследователь в области нейронауки языка с более чем 20-летним опытом — аргументирует, что машинная генерация текста не равнозначна осмысленному восприятию. Он подчеркивает: то, что нейросеть выдает текст, не означает, что она воспринимает его как человек.
Одной из популярных идей стало утверждение, что нейросети «понимают» язык. Это мнение поддержал даже Джеффри Хинтон, лауреат Нобелевской премии и пионер в области ИИ. Но ученые, изучающие мозговую активность человека, указывают на ключевое различие — язык существует не только как текст, но и как живой процесс в определенном контексте, с участием эмоций, интонации, мимики и других невербальных сигналов.

Пример: одна и та же фраза «я беременна» может нести разный смысл в зависимости от контекста, возраста и ожиданий собеседников. ИИ же не способен учитывать такие нюансы в полной мере. Более того, эмоциональное состояние влияет на то, как мозг интерпретирует смысл предложения — этот аспект остается вне досягаемости для алгоритмов.
Также автор отмечает, что утверждение о «превосходстве» нейросетей над теориями Хомского — не совсем корректно. Хомский описывал врожденные механизмы освоения языка, а не его обработку. Машины же лишь имитируют языковые структуры, не обладая биологическими основами понимания.

В результате смешение понятий может привести к ошибочным выводам о возможностях ИИ и создать иллюзию, что он мыслит как человек. Такое недопонимание способно повлиять на принятие решений, особенно в области образования, медицины и коммуникаций.