Anthropic a révélé accidentellement un document interne sur “l’âme” de Claude
Anthropic a révélé accidentellement “l’âme” de l’intelligence artificielle à un utilisateur. Et ce n’est pas une métaphore. C’est un document interne tout à fait concret.
L’utilisateur Richard Weiss a involontairement fait citer par le grand modèle de langage Claude 4 et 5 Opus un document appelé “Aperçu de l’âme”. La philosophe et spécialiste de l’éthique d’Anthropic Amanda Askell a confirmé son authenticité. Il a été téléchargé lors de la phase d’entraînement.
Weiss a demandé à Claude le message système avec les instructions pour mener le dialogue. Le chatbot a fait référence à plusieurs documents, 1 d’entre eux s’appelle “aperçu de l’âme”. L’utilisateur a demandé à montrer le texte, et Claude a produit un guide de 11 mille mots sur comment le modèle devrait se comporter.
Le document contient des instructions de sécurité avec des barrières protectrices contre les réponses dangereuses. Claude a pour tâche d’être vraiment utile aux gens.
La spécialiste de l’éthique d’Anthropic Amanda Askell a confirmé, je cite : “Je travaille dessus depuis un certain temps, il est encore en phase de finalisation. Et bientôt nous prévoyons de publier une version complète avec des informations plus détaillées. Les citations des modèles ne sont pas particulièrement précises, mais le document original est en grande partie correct. Dans l’entreprise on l’appelle le document de l’âme, et Claude manifestement aussi. Mais nous l’appellerons autrement”.
Il s’avère que “l’Âme” de Claude s’est révélée être un manuel de comportement, et un utilisateur ordinaire y a eu accès. Beaucoup de détails du développement des modèles d’IA restent dans les coulisses. Et l’opportunité de regarder derrière elles — une petite surprise.