ИИ-агенты самостоятельно создали социальные нормы без участия человека
Мы привыкли думать, что правила и нормы – это чисто человеческое изобретение. Но новое исследование учёных из City St George’s, University of London и IT University of Copenhagen показывает неожиданное. Их исследование показало, что большие языковые модели, подобные ChatGPT, способны самостоятельно формировать социальные нормы и языковые соглашения, а также менять их под влиянием «меньшинства» – всё без участия человека.
Исследователи задались вопросом. Смогут ли группы искусственного интеллекта создавать новые формы коммуникации, как это делают люди? Для эксперимента они объединили от 24 до 200 ИИ-агентов, которые взаимодействовали между собой в особых условиях. Не зная о существовании всей группы, с ограниченной памятью о прошлых контактах и без человеческих инструкций.
Моделям предлагалось выбрать «имя» из ограниченного набора символов. За совпадение с партнёром они получали награду, за несовпадение – наказание. После сотен таких взаимодействий в группах возникли устойчивые языковые нормы, аналогичные человеческим культурным паттернам.
Самое интересное открытие – появление коллективных предвзятостей, не объяснимых поведением отдельных моделей. Это доказывает, что взаимодействующий искусственный интеллект порождает новые «социальные» качества, которые невозможно свести к индивидуальным алгоритмам участников.
Автор: AIvengo
5 лет я работаю с машинным обучением и искусственным интеллектом. И эта сфера не перестает меня удивлять, восхищать и интересовать.
Latest News
UBTech отправит роботов Walker S2 служить на границу Китая за $37 млнКитайская компания UBTech выиграла контракт на $37 миллионов. И отправит человекоподобных роботов Walker S2 служить на границу Китая с Вьетнамом. South China Morning Post сообщает, что роботы будут взаимодействовать с туристами и персоналом, выполнять логистические операции, досматривать грузы и патрулировать местность. И что характерно — они умеют самостоятельно менять свою батарею.
ИИ-чатботы генерируют контент, усугубляющий расстройства питанияСовместное исследование Стэнфордского университета и Центра демократии и технологий показало тревожную картину. Чат-боты с искусственным интеллектом представляют серьёзный риск для людей с расстройствами пищевого поведения. Учёные предупреждают, что нейросети раздают вредные советы о диетах. Предлагают способы скрыть расстройство и генерируют "вдохновляющий контент для похудения", который усугубляет проблему.
OpenAGI выпустил модель Lux, которая обгоняет Google и OpenAIСтартап OpenAGI выпустил модель Lux для управления компьютером и заявляет, что это прорыв. По бенчмаркам модель на целое поколение обгоняет аналоги от Google, OpenAI и Anthropic. Кроме того, она работает быстрее. Примерно 1 секунда на шаг вместо 3 секунд у конкурентов. И в 10 раз дешевле по стоимости обработки 1 токена.