Post Thumbnail

L’IA a surpassé les médecins de 4,6 fois dans le nouveau test médical HealthBench

La société OpenAI a présenté le système d’évaluation des modèles de langage HealthBench, qui établit de nouvelles normes pour mesurer l’efficacité des systèmes d’intelligence artificielle dans le domaine médical.

L’outil a été développé en collaboration avec 262 médecins praticiens de 60 pays du monde. Une couverture géographique aussi large permet de prendre en compte différentes approches de diagnostic et de traitement, caractéristiques de différentes écoles médicales et contextes culturels.

HealthBench est basé sur une vaste base de données de 5000 scénarios cliniques modélisés sur des cas médicaux réels. La particularité de la méthodologie réside dans son approche globale. Au lieu de questions isolées, des dialogues synthétiques entre un assistant et un utilisateur sont utilisés, simulant une communication réelle dans un environnement clinique.

Le multilinguisme du benchmark fournit une évaluation véritablement mondiale de l’intelligence artificielle. Ce qui est d’une importance critique pour les systèmes médicaux qui doivent fonctionner dans différents environnements linguistiques sans perte de précision.

L’évaluation des modèles est effectuée selon 5 paramètres clés. Exactitude des informations fournies, exhaustivité de la réponse, compréhension du contexte, qualité de la communication et respect des instructions. Une telle analyse multifactorielle permet d’identifier les forces et les faiblesses de chaque système d’intelligence artificielle.

Les résultats des tests démontrent un écart significatif entre les capacités de l’intelligence artificielle et de l’homme. Le modèle le plus efficace o3 a atteint un score de 60%, suivi par Grok 3 avec 54% et Gemini avec 52%. À titre de comparaison, les médecins praticiens sans soutien d’intelligence artificielle démontrent un résultat d’environ 13%.

Les spécialistes médicaux éprouvent également des difficultés même en essayant d’améliorer les réponses de l’intelligence artificielle. Si avec les modèles de génération précédente, les médecins pouvaient légèrement améliorer la qualité des réponses, avec les systèmes les plus récents, la situation a changé. La modification humaine des réponses d’intelligence artificielle de dernière génération réduit en fait leur qualité.

Je pense que l’écart quantitatif entre les indicateurs de l’intelligence artificielle et des médecins est trop important pour être expliqué par des particularités méthodologiques du test. 60% contre 13%. Compte tenu du fait que le benchmark a été développé avec la participation des professionnels médicaux eux-mêmes.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

Le premier système LAARMA protège les animaux sur les routes australiennes

En Australie, les collisions d'animaux avec les automobiles constituent un problème sérieux pour l'écosystème de ce continent. Maintenant les scientifiques ont trouvé une solution technologique. Le premier système routier LAARMA au monde basé sur l'intelligence artificielle, qui protège les animaux sauvages des rencontres dangereuses avec le transport.

Nvidia a présenté la famille de modèles Cosmos pour la robotique

L'entreprise Nvidia a présenté la famille Cosmos de modèles d'IA. Qui peuvent fondamentalement changer l'approche de création de robots et d'agents IA physiques.

ChatGPT appelle les utilisateurs "graines d'étoiles" de la planète Lyra

Il s'avère que ChatGPT peut entraîner les utilisateurs dans le monde de théories scientifiquement non fondées et mystiques.

La musique IA déclenche des émotions plus fortes que la musique humaine

Vous êtes-vous déjà demandé pourquoi une mélodie donne la chair de poule tandis qu'une autre laisse indifférent ? Les scientifiques ont découvert quelque chose d'intéressant. La musique créée par l'intelligence artificielle déclenche chez les gens des réactions émotionnelles plus intenses que les compositions écrites par des humains.

GPT-5 a été piraté en 24 heures

2 entreprises de recherche indépendantes NeuralTrust et SPLX ont découvert des vulnérabilités critiques dans le système de sécurité du nouveau modèle seulement 24 heures après la sortie de GPT-5. Pour comparaison, Grok-4 a été piraté en 2 jours, rendant le cas de GPT-5 encore plus alarmant.