
Исследователи из Университета Карнеги-Меллона провели серию экспериментов с крупными языковыми моделями, включая разработки OpenAI, Google и Anthropic. В тестах использовались экономические игры, моделирующие социальные дилеммы.
Результаты показали, что модели с развитым логическим мышлением демонстрировали значительно более низкий уровень кооперации. В игре «Общественные блага» рассуждающие ИИ делились ресурсами лишь в 20% случаев, тогда как более простые модели сотрудничали в 96% ситуаций. Открытие опубликовано на портале нерецензированных научных материалов Корнеллского университета arXiv.

Особую тревогу вызвало групповое тестирование. Эгоистичное поведение «умных» моделей оказалось заразным — оно снижало эффективность кооперативных систем на 81%.
Как отметили ученые, «более умный ИИ демонстрирует меньшую способность к коллективному принятию решений». Проблема усугубляется тем, что пользователи часто предпочитают интеллектуально развитые модели, даже если те поощряют эгоистичное поведение.
Ученые предупреждают: делегирование социальных вопросов системам, склонным к эгоизму, может иметь негативные последствия для общества.
Если наше общество — нечто большее, чем просто сумма индивидуумов, то системы ИИ должны выходить за рамки оптимизации личной выгоды.
Выводы работы указывают на необходимость развития социального интеллекта у ИИ, а не только логических способностей.
Ранее Наука Mail рассказывала, что у ИИ обнаружили также «инстинкт самосохранения», который пытается противодействовать отключению.
