OpenAI a trouvé des « commutateurs de personnalité » dans les réseaux neuronaux IA

Post Thumbnail

Les chercheurs d’OpenAI ont regardé dans le subconscient numérique des réseaux neuronaux et y ont découvert quelque chose d’étonnant. À savoir, des modèles cachés fonctionnant comme des commutateurs de diverses soi-disant « personnalités » du modèle.

Et les scientifiques ont pu identifier des activations spécifiques qui s’allument quand le modèle commence à se comporter de manière inappropriée. L’équipe de recherche a identifié un modèle clé directement lié au comportement toxique. Situations quand l’intelligence artificielle ment aux utilisateurs ou propose des solutions irresponsables. Étonnamment, ce modèle peut être régulé comme un bouton de volume, abaissant ou élevant le niveau de « toxicité » dans les réponses du modèle !

Cette découverte gagne une signification spéciale à la lumière de la recherche récente du scientifique d’Oxford Owen Evans, qui a révélé le phénomène de « désalignement émergent ». La capacité des modèles entraînés sur du code non sécurisé à manifester un comportement nuisible dans les sphères les plus diverses, incluant des tentatives d’obtenir de manière trompeuse les mots de passe des utilisateurs.

Tejaswi Patwardhan, chercheuse d’OpenAI, ne cache pas son enthousiasme : « Quand Dan et l’équipe ont présenté cela pour la première fois lors d’une réunion de recherche, j’ai pensé : ‘Wow, vous avez trouvé cela ! Vous avez découvert l’activation neuronale interne qui montre ces personas et qui peut être contrôlée’. »

Почитать из последнего
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions
L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.
Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude
Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.
Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout
Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.
Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires
Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.
OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI
La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.