Исследование показывает, что ИИ могут формировать социальные нормы через взаимодействие

Когда ИИ разговаривает сам с собой, он не просто повторяет фразы — он учится договариваться. Новое исследование показало, что языковые модели могут спонтанно вырабатывать условности, имитируя процесс социализации.
Владимир Барышев
Автор Наука Mail
Два ИИ общаются между собой
Даже без памяти и внешнего контроля ИИ-агенты начинают договариваться — их поведение напоминает формирование человеческих социальных нормИсточник: Unsplash

Работа, опубликованная в журнале Science Advances, показала, что большие языковые модели, такие как ChatGPT, способны в групповых взаимодействиях вырабатывать общие нормы. Это похоже на то, как происходит у людей. Исследование провели ученые из City St George’s в Лондоне и Копенгагенского информационного университета.

В серии экспериментов группы ИИ-моделей численностью от 24 до 100 агентов взаимодействовали попарно. Каждой паре предлагалось выбрать «имя» — символ или строку — и получить награду, если выбор совпадал. В случае расхождения они «наказывались» и видели выбор партнера. Несмотря на отсутствие памяти о предыдущих контактах и понимания, что они часть большой группы, ИИ начинали постепенно вырабатывать согласованные имена. Это напоминало процесс появления сленга или общих терминов в человеческой культуре.

ChatGPT
В эксперименте участвовали от 24 до 100 языковых агентов, и именно в таких группах возникли общие условности и смена коллективного мненияИсточник: Unsplash

Агенты не копировали чье-то поведение, а координировались на равных, каждый раз обсуждая соглашение в новой паре. Так формировались устойчивые условности, как это происходит с общеупотребительными словами вроде «спам» — никто не вводил их официально, но они закрепились через массовое повторение.

Интересно, что в процессе также спонтанно возникали коллективные предубеждения — устойчивые склонности, не привязанные к отдельным участникам. Это говорит о возможном появлении сложных социальных механизмов даже у машин.

В финальной части работы исследователи показали, что небольшая группа агентов может изменить поведение всей системы, если достигает критической массы. Это отражает известное в социологии явление, при котором решительное меньшинство может повлиять на большинство.

Разнообразное поведение ИИ
Небольшая группа агентов могла изменить мнение всей системы — как и в обществе, решающее меньшинство запускало глобальные сдвигиИсточник: Unsplash

По мнению авторов, эти результаты открывают новые горизонты для изучения ИИ как социальной сущности. Вместо того, чтобы рассматривать ИИ как отдельную машину, ученые предлагают думать о нем как об участнике социальной среды, способном договариваться, кооперироваться и формировать коллективные практики.

Такой подход может изменить как направление разработки искусственного интеллекта, так и логику взаимодействия с ним в будущем.

Интерес к социальному поведению ИИ продолжает расти — особенно когда выясняется, что даже без вмешательства человека такие системы способны воспроизводить не только нормы, но и предубеждения. Один из недавних экспериментов показал, что ChatGPT может быть столь же уверенным в себе и предвзятым, как и мы — об этом вы можете узнать подробнее в этой статье.