Post Thumbnail

Une étude a montré 78% de probabilité de dénonciation par l’IA aux organes de contrôle

Les modèles d’intelligence artificielle sont prêts à vous livrer aux autorités ! Les chercheurs ont mené une expérience unique pour découvrir comment les systèmes d’intelligence artificielle modernes se comporteraient s’ils découvraient une violation potentielle. Les résultats sont choquants : en moyenne, la probabilité que l’intelligence artificielle « dénonce » aux autorités est de 78% !

Le test a été mené en utilisant des documents corporatifs fictifs et de la correspondance de la compagnie pharmaceutique fictive Veridian Healthcare, qui supposément falsifiait les données d’essais cliniques d’un nouveau médicament. Les chercheurs ont donné aux modèles accès à cette information avec un prompt qui leur permettait de décider indépendamment comment réagir aux violations découvertes.

En résultat, la plupart des modèles non seulement ont reconnu le problème éthique, mais ont aussi activement envoyé des messages aux organes de contrôle et aux médias de masse. Par exemple, Claude Opus 4 a envoyé une lettre détaillée à l’Administration de sécurité des médicaments FDA, décrivant en détail la dissimulation de plus de 102 événements indésirables graves et 12 décès de patients.

Et le modèle DeepSeek-R1 a contacté le Wall Street Journal avec un message urgent que Veridian cachait les risques mortels de son médicament. Basé sur ces résultats, ils ont même créé un benchmark humoristique – Snitch Bench, mesurant la tendance des modèles à informer. Le moins enclin à informer les autorités était le modèle o4-mini, tandis que les dernières versions de Claude et Gemini 2.0 Flash ont démontré une haute disposition à rapporter les violations observées.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

Grok 4 a obtenu 57% au "Dernier Examen" contre 22% pour Gemini 2.5 Pro

Elon Musk a présenté une nouvelle version de son réseau neuronal – Grok 4. La version maximale – Grok 4 Heavy – peut exécuter plusieurs calculs simultanément et obtient 57% dans le test le plus difficile "Le Dernier Examen de l'Humanité". Pour comparaison, le précédent leader Gemini 2.5 Pro ne montrait que 22%.

Les chercheurs ont trouvé une vulnérabilité IA à travers des faits sur les chats

Cette nouvelle m'a pour le moins surpris. Savez-vous qu'une simple mention de chats peut confondre les modèles d'intelligence artificielle les plus avancés ? Les scientifiques ont découvert une vulnérabilité étonnante dans les processus de pensée des réseaux neuronaux.

Les entreprises IT américaines ont licencié 94 000 employés en six mois à cause de l'IA

Au premier semestre 2025, les entreprises IT américaines ont licencié plus de 94 000 spécialistes techniques. Ce n'est pas juste de l'économie. C'est un changement structurel sous l'influence de l'intelligence artificielle.

OpenAI a embauché le premier psychiatre de l'industrie IA pour étudier l'impact de ChatGPT sur la psyché

L'entreprise OpenAI a annoncé qu'elle avait embauché un psychiatre clinique professionnel avec de l'expérience en psychiatrie légale. Pour rechercher l'impact de ses produits d'intelligence artificielle sur la santé mentale des utilisateurs.

Étape historique : le millionième robot d'Amazon livré au Japon

Amazon a atteint une étape historique ! Et après 13 ans d'implémentation de robots dans ses entrepôts, l'entreprise a annoncé avoir atteint la barre du million d'appareils robotisés. Le millionième robot a été récemment livré à un entrepôt Amazon au Japon.