
Les agents IA ont créé indépendamment des normes sociales sans participation humaine
Nous avons l’habitude de penser que les règles et normes sont une invention purement humaine. Mais une nouvelle recherche de scientifiques de City St George’s, University of London et IT University of Copenhagen montre l’inattendu. Leur recherche a montré que les grands modèles de langage, similaires à ChatGPT, sont capables de former indépendamment des normes sociales et des accords linguistiques, ainsi que de les changer sous l’influence d’une “minorité” – tout cela sans participation humaine.
Les chercheurs se sont posé une question. Les groupes d’intelligence artificielle pourront-ils créer de nouvelles formes de communication, comme le font les gens ? Pour l’expérience ils ont uni de 24 à 200 agents IA qui interagissaient entre eux dans des conditions spéciales. Ne connaissant pas l’existence de tout le groupe, avec une mémoire limitée des contacts passés et sans instructions humaines.
Il était proposé aux modèles de choisir un “nom” parmi un ensemble limité de symboles. Pour la correspondance avec un partenaire ils recevaient une récompense, pour la non-correspondance – une punition. Après des centaines de telles interactions, des normes linguistiques stables ont surgi dans les groupes, analogues aux modèles culturels humains.
La découverte la plus intéressante – l’apparition de biais collectifs non explicables par le comportement de modèles individuels. Cela prouve que l’intelligence artificielle en interaction génère de nouvelles qualités “sociales” qui ne peuvent être réduites aux algorithmes individuels des participants.