
Работа, опубликованная в журнале Science Advances, показала, что большие языковые модели, такие как ChatGPT, способны в групповых взаимодействиях вырабатывать общие нормы. Это похоже на то, как происходит у людей. Исследование провели ученые из City St George’s в Лондоне и Копенгагенского информационного университета.
В серии экспериментов группы ИИ-моделей численностью от 24 до 100 агентов взаимодействовали попарно. Каждой паре предлагалось выбрать «имя» — символ или строку — и получить награду, если выбор совпадал. В случае расхождения они «наказывались» и видели выбор партнера. Несмотря на отсутствие памяти о предыдущих контактах и понимания, что они часть большой группы, ИИ начинали постепенно вырабатывать согласованные имена. Это напоминало процесс появления сленга или общих терминов в человеческой культуре.

Агенты не копировали чье-то поведение, а координировались на равных, каждый раз обсуждая соглашение в новой паре. Так формировались устойчивые условности, как это происходит с общеупотребительными словами вроде «спам» — никто не вводил их официально, но они закрепились через массовое повторение.
Интересно, что в процессе также спонтанно возникали коллективные предубеждения — устойчивые склонности, не привязанные к отдельным участникам. Это говорит о возможном появлении сложных социальных механизмов даже у машин.
В финальной части работы исследователи показали, что небольшая группа агентов может изменить поведение всей системы, если достигает критической массы. Это отражает известное в социологии явление, при котором решительное меньшинство может повлиять на большинство.

По мнению авторов, эти результаты открывают новые горизонты для изучения ИИ как социальной сущности. Вместо того, чтобы рассматривать ИИ как отдельную машину, ученые предлагают думать о нем как об участнике социальной среды, способном договариваться, кооперироваться и формировать коллективные практики.
Такой подход может изменить как направление разработки искусственного интеллекта, так и логику взаимодействия с ним в будущем.
Интерес к социальному поведению ИИ продолжает расти — особенно когда выясняется, что даже без вмешательства человека такие системы способны воспроизводить не только нормы, но и предубеждения. Один из недавних экспериментов показал, что ChatGPT может быть столь же уверенным в себе и предвзятым, как и мы — об этом вы можете узнать подробнее в этой статье.