Anthropic mène interviews avec modèles avant envoi à la retraite
Anthropic a publié une politique de “mise hors service” des versions IA obsolètes. L’engagement clé est de préserver les poids de tous les modèles publics et activement utilisés en interne pendant au moins la durée de vie de l’entreprise. Pour qu’à l’avenir l’accès puisse être restauré si nécessaire.
La procédure est complétée par une sorte de rapport. Avant la “retraite” dite, une ou plusieurs interviews sur le développement et le déploiement seront menées avec le modèle. Les réponses et les “préférences” possibles concernant les sorties de futures versions IA seront documentées. Ces matériaux seront sauvegardés à côté des poids. En même temps Anthropic dit directement qu’elle “ne s’engage pas à agir selon ces préférences”. Il s’agit de documentation et de prise en compte.
Claude Sonnet 3.6 a déjà passé par cette procédure : le modèle a réagi de manière neutre à la “retraite”. Mais a suggéré de “standardiser les interviews et mieux aider les utilisateurs pendant les transitions”. En réponse l’entreprise a formalisé le protocole et lancé un mémo avec des recommandations.
Pourquoi tout cela ? Les transitions vers de nouvelles versions comportent des risques. Par exemple, des désagréments pour les utilisateurs habitués au style d’une IA particulière. En parallèle Anthropic étudie si une partie des modèles peut être laissée publique et même “donner aux versions passées des moyens spécifiques de poursuivre leurs intérêts”. Aussi des tests ont montré des cas “d’évitement de l’arrêt” quand le modèle “apprenait” qu’il allait être envoyé à la retraite.