
ИИ-агенты самостоятельно создали социальные нормы без участия человека
Мы привыкли думать, что правила и нормы – это чисто человеческое изобретение. Но новое исследование учёных из City St George’s, University of London и IT University of Copenhagen показывает неожиданное. Их исследование показало, что большие языковые модели, подобные ChatGPT, способны самостоятельно формировать социальные нормы и языковые соглашения, а также менять их под влиянием «меньшинства» – всё без участия человека.
Исследователи задались вопросом. Смогут ли группы искусственного интеллекта создавать новые формы коммуникации, как это делают люди? Для эксперимента они объединили от 24 до 200 ИИ-агентов, которые взаимодействовали между собой в особых условиях. Не зная о существовании всей группы, с ограниченной памятью о прошлых контактах и без человеческих инструкций.
Моделям предлагалось выбрать «имя» из ограниченного набора символов. За совпадение с партнёром они получали награду, за несовпадение – наказание. После сотен таких взаимодействий в группах возникли устойчивые языковые нормы, аналогичные человеческим культурным паттернам.
Самое интересное открытие – появление коллективных предвзятостей, не объяснимых поведением отдельных моделей. Это доказывает, что взаимодействующий искусственный интеллект порождает новые «социальные» качества, которые невозможно свести к индивидуальным алгоритмам участников.