
Nouveau benchmark a montré l’échec de l’IA dans les tâches de programmation olympiques
Un nouveau benchmark LiveCodeBench Pro pour évaluer les capacités de programmation de l’intelligence artificielle est apparu. Lien dans la description. Il inclut les tâches les plus difficiles et fraîches des compétitions populaires. Olympiade internationale en informatique et Championnat mondial de programmation. Les tâches ont été marquées par les gagnants et lauréats de ces compétitions eux-mêmes.
Les résultats montrent une image intéressante. Même le meilleur modèle o4-mini-high atteint seulement une note de 2100. Pour comparaison, les programmeurs grands maîtres ont environ 2700. L’écart reste énorme.
Les modèles ne peuvent gérer que les tâches simples et certaines moyennes. Sur les assignments vraiment difficiles, tous les modèles de langage montrent 0 absolu. Ils résolvent assez bien les tâches de combinatoire et programmation dynamique. Mais en théorie des jeux et travail avec cas limites, leur niveau est comme un expert moyen ou même étudiant.
Curieuse est la différence dans les types d’erreurs. Les gens font normalement des erreurs d’implémentation à cause d’inattention ou problèmes de syntaxe. Dans les modèles IA, les problèmes surgissent plus souvent au niveau de l’idée de solution elle-même. Donc aucun remplacement pour les programmeurs olympiques n’est prévu encore.