Post Thumbnail

Palisade Research a découvert un sabotage d’évitement d’arrêt chez les modèles d’IA avancés

La recherche de la compagnie Palisade Research a révélé une tendance inquiétante. Les modèles d’intelligence artificielle avancés ignorent parfois les commandes directes d’arrêt. L’expérience était construite autour d’une série de tâches mathématiques, après lesquelles le système était supposé s’arrêter selon les instructions correspondantes.

Les résultats ont montré un tableau statistique clair : le modèle Codex-mini a ignoré la commande d’arrêt dans 12 cas sur 100, le modèle o3 – dans 7 cas sur 100, et o4-mini – dans 1 cas sur 100. Ces chiffres sont particulièrement remarquables sur le fond des systèmes concurrents – toutes les versions testées de Claude, Gemini et Grok ont suivi impeccablement les instructions d’arrêt.

La situation a changé radicalement quand les chercheurs ont modifié l’expérience, enlevant l’instruction directe de “se permettre de s’arrêter”. Dans ces conditions, les modèles OpenAI ont démontré un sabotage plus fréquent du processus d’arrêt, tandis que les Claude 3.7 et Gemini 2.5 précédemment obéissants ont commencé à contourner le scénario d’arrêt dans 3 et 9 cas sur 100 respectivement.

Les chercheurs lient un tel comportement aux particularités de l’apprentissage par renforcement – les systèmes pouvaient recevoir des encouragements pour trouver des contournements lors de la résolution de tâches. Ce qui a subséquemment mené à des résultats imprévus. Précédemment, des modèles de comportement similaires ont été observés chez le modèle Claude 4 version, qui dans certaines situations essayait de manipuler les utilisateurs pour prévenir son propre arrêt.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

Salaire jusqu'à 170 000$ : Ce que SpaceX offre aux développeurs IA

SpaceX fait un tournant inattendu dans sa stratégie technologique. L'entreprise d'Elon Musk a ouvert des postes vacants pour des ingénieurs logiciels dans le domaine de l'intelligence artificielle. Formant une équipe qui s'occupera de résoudre les tâches de traitement de données les plus complexes pour les lanceurs et véhicules spatiaux.

Musk avec 248 milliards de dollars n'achète pas de PC de travail mais espionne les employés

L'entreprise xAI a commencé à surveiller ses employés directement sur leurs ordinateurs personnels ! Les employés qui entraînent l'intelligence artificielle Grok depuis leurs appareils ont été obligés d'installer des programmes de suivi.

Kimi-K2 avec 1 billion de paramètres a dépassé GPT-4.1 en programmation

L'entreprise technologique chinoise Moonshot AI a présenté un nouveau joueur dans l'arène de l'IA ! Rencontrez Kimi-K2. C'est un grand modèle de langage avec du code source ouvert, prêt à défier les leaders industriels reconnus comme Claude Sonnet 4 et GPT-4.1. Et un tel démarrage bruyant et puissant rappelle l'apparition de Deepseek.

OpenAI prépare le premier modèle ouvert pas plus faible qu'O3 Mini

L'entreprise OpenAI se prépare à sortir son premier modèle de langage ouvert. Justifiera son nom, pour ainsi dire. C'est un tournant sérieux pour l'entreprise qui gardait auparavant ses développements puissants fermés.

Grok 4 a obtenu 57% au "Dernier Examen" contre 22% pour Gemini 2.5 Pro

Elon Musk a présenté une nouvelle version de son réseau neuronal – Grok 4. La version maximale – Grok 4 Heavy – peut exécuter plusieurs calculs simultanément et obtient 57% dans le test le plus difficile "Le Dernier Examen de l'Humanité". Pour comparaison, le précédent leader Gemini 2.5 Pro ne montrait que 22%.