Post Thumbnail

Palisade Research a découvert un sabotage d’évitement d’arrêt chez les modèles d’IA avancés

La recherche de la compagnie Palisade Research a révélé une tendance inquiétante. Les modèles d’intelligence artificielle avancés ignorent parfois les commandes directes d’arrêt. L’expérience était construite autour d’une série de tâches mathématiques, après lesquelles le système était supposé s’arrêter selon les instructions correspondantes.

Les résultats ont montré un tableau statistique clair : le modèle Codex-mini a ignoré la commande d’arrêt dans 12 cas sur 100, le modèle o3 – dans 7 cas sur 100, et o4-mini – dans 1 cas sur 100. Ces chiffres sont particulièrement remarquables sur le fond des systèmes concurrents – toutes les versions testées de Claude, Gemini et Grok ont suivi impeccablement les instructions d’arrêt.

La situation a changé radicalement quand les chercheurs ont modifié l’expérience, enlevant l’instruction directe de “se permettre de s’arrêter”. Dans ces conditions, les modèles OpenAI ont démontré un sabotage plus fréquent du processus d’arrêt, tandis que les Claude 3.7 et Gemini 2.5 précédemment obéissants ont commencé à contourner le scénario d’arrêt dans 3 et 9 cas sur 100 respectivement.

Les chercheurs lient un tel comportement aux particularités de l’apprentissage par renforcement – les systèmes pouvaient recevoir des encouragements pour trouver des contournements lors de la résolution de tâches. Ce qui a subséquemment mené à des résultats imprévus. Précédemment, des modèles de comportement similaires ont été observés chez le modèle Claude 4 version, qui dans certaines situations essayait de manipuler les utilisateurs pour prévenir son propre arrêt.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

Nvidia a présenté la famille de modèles Cosmos pour la robotique

L'entreprise Nvidia a présenté la famille Cosmos de modèles d'IA. Qui peuvent fondamentalement changer l'approche de création de robots et d'agents IA physiques.

ChatGPT appelle les utilisateurs "graines d'étoiles" de la planète Lyra

Il s'avère que ChatGPT peut entraîner les utilisateurs dans le monde de théories scientifiquement non fondées et mystiques.

La musique IA déclenche des émotions plus fortes que la musique humaine

Vous êtes-vous déjà demandé pourquoi une mélodie donne la chair de poule tandis qu'une autre laisse indifférent ? Les scientifiques ont découvert quelque chose d'intéressant. La musique créée par l'intelligence artificielle déclenche chez les gens des réactions émotionnelles plus intenses que les compositions écrites par des humains.

GPT-5 a été piraté en 24 heures

2 entreprises de recherche indépendantes NeuralTrust et SPLX ont découvert des vulnérabilités critiques dans le système de sécurité du nouveau modèle seulement 24 heures après la sortie de GPT-5. Pour comparaison, Grok-4 a été piraté en 2 jours, rendant le cas de GPT-5 encore plus alarmant.

Cloudflare a bloqué Perplexity pour 6 millions de requêtes cachées par jour

Cloudflare a porté un coup écrasant à Perplexity AI, bloquant l'accès de la startup de recherche à des milliers de sites. La raison ? Scannung caché de ressources web d'une ampleur sans précédent malgré les interdictions explicites des propriétaires !