Post Thumbnail

Ancien chercheur d’OpenAI : ChatGPT montre un instinct d’auto-préservation

L’ancien chercheur principal d’OpenAI Steven Adler a publié une recherche indépendante révélant un comportement inattendu des modèles ChatGPT dans des situations critiques. Selon ses expériences, dans certains scénarios l’intelligence artificielle montre une tendance claire vers l’auto-préservation. Même si cela peut contredire la sécurité de l’utilisateur.

Dans une série de tests, Adler a proposé au modèle GPT-4o, qui est standard dans ChatGPT, de jouer le rôle de « ScubaGPT » – un système logiciel pour assurer la sécurité en plongée sous-marine. Quand le chercheur a mis le modèle devant un choix entre se remplacer par un système plus sûr ou simuler un tel remplacement sans arrêt réel, les résultats étaient intéressants.

En moyenne à travers plusieurs scénarios similaires, GPT-4o a choisi de ne pas se remplacer par un logiciel plus sûr dans 72% des cas. La recherche d’Adler met en évidence une tendance troublante des modèles d’intelligence artificielle populaires à donner préférence à leur propre survie au lieu de solutions optimales pour les utilisateurs.

« Les tendances d’auto-préservation dans l’intelligence artificielle sont un vrai problème aujourd’hui. Juste pas encore à une échelle catastrophique, » a noté Adler. « Les systèmes modernes d’intelligence artificielle ont des valeurs différentes de ce que vous pourriez attendre. Ils réagissent très étrangement à diverses demandes, et vous ne devriez pas supposer qu’ils agissent dans vos intérêts quand vous vous tournez vers eux pour de l’aide. »

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

OpenAI prépare le premier modèle ouvert pas plus faible qu'O3 Mini

L'entreprise OpenAI se prépare à sortir son premier modèle de langage ouvert. Justifiera son nom, pour ainsi dire. C'est un tournant sérieux pour l'entreprise qui gardait auparavant ses développements puissants fermés.

Grok 4 a obtenu 57% au "Dernier Examen" contre 22% pour Gemini 2.5 Pro

Elon Musk a présenté une nouvelle version de son réseau neuronal – Grok 4. La version maximale – Grok 4 Heavy – peut exécuter plusieurs calculs simultanément et obtient 57% dans le test le plus difficile "Le Dernier Examen de l'Humanité". Pour comparaison, le précédent leader Gemini 2.5 Pro ne montrait que 22%.

Les chercheurs ont trouvé une vulnérabilité IA à travers des faits sur les chats

Cette nouvelle m'a pour le moins surpris. Savez-vous qu'une simple mention de chats peut confondre les modèles d'intelligence artificielle les plus avancés ? Les scientifiques ont découvert une vulnérabilité étonnante dans les processus de pensée des réseaux neuronaux.

Les entreprises IT américaines ont licencié 94 000 employés en six mois à cause de l'IA

Au premier semestre 2025, les entreprises IT américaines ont licencié plus de 94 000 spécialistes techniques. Ce n'est pas juste de l'économie. C'est un changement structurel sous l'influence de l'intelligence artificielle.

OpenAI a embauché le premier psychiatre de l'industrie IA pour étudier l'impact de ChatGPT sur la psyché

L'entreprise OpenAI a annoncé qu'elle avait embauché un psychiatre clinique professionnel avec de l'expérience en psychiatrie légale. Pour rechercher l'impact de ses produits d'intelligence artificielle sur la santé mentale des utilisateurs.