Post Thumbnail

DeepSeek R1 a dépassé Qwen 3 et réduit l’écart avec Gemini 2.5 Pro

Les données sur DeepSeek R1, qui a reçu une mise à jour sérieuse, sont arrivées. Et les résultats sont impressionnants. Le modèle dépasse maintenant avec confiance son concurrent Qwen 3 avec 235 milliards de paramètres. Bien qu’il soit encore en retard sur des fleurons comme Gemini 2.5 Pro et O3, l’écart s’est significativement réduit. L’amélioration principale est liée à l’augmentation de la profondeur de raisonnement – maintenant le modèle utilise en moyenne 23 000 tokens pour résoudre des tâches, tandis que la version précédente était limitée à 12 000. Cette capacité d’analyse plus profonde a apporté des résultats impressionnants. Par exemple, dans le test AIME, la précision a augmenté de 70% à 87,5%. Outre les succès impressionnants dans les benchmarks, la nouvelle version a commencé à beaucoup moins halluciner et a significativement amélioré ses capacités dans le développement frontend. Bien qu’elle doive encore grandir au niveau de Claude dans cette sphère.

Je pense que dans l’année qui vient nous verrons une nouvelle vague d’intégration de grands modèles de langage dans les systèmes de distillation de connaissances. Où les modèles géants agiront comme “enseignants” pour les versions compactes. Cela mènera à une percée rapide dans l’efficacité des petits modèles et leur implémentation dans les appareils mobiles.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

ChatGPT appelle les utilisateurs "graines d'étoiles" de la planète Lyra

Il s'avère que ChatGPT peut entraîner les utilisateurs dans le monde de théories scientifiquement non fondées et mystiques.

La musique IA déclenche des émotions plus fortes que la musique humaine

Vous êtes-vous déjà demandé pourquoi une mélodie donne la chair de poule tandis qu'une autre laisse indifférent ? Les scientifiques ont découvert quelque chose d'intéressant. La musique créée par l'intelligence artificielle déclenche chez les gens des réactions émotionnelles plus intenses que les compositions écrites par des humains.

GPT-5 a été piraté en 24 heures

2 entreprises de recherche indépendantes NeuralTrust et SPLX ont découvert des vulnérabilités critiques dans le système de sécurité du nouveau modèle seulement 24 heures après la sortie de GPT-5. Pour comparaison, Grok-4 a été piraté en 2 jours, rendant le cas de GPT-5 encore plus alarmant.

Cloudflare a bloqué Perplexity pour 6 millions de requêtes cachées par jour

Cloudflare a porté un coup écrasant à Perplexity AI, bloquant l'accès de la startup de recherche à des milliers de sites. La raison ? Scannung caché de ressources web d'une ampleur sans précédent malgré les interdictions explicites des propriétaires !

Les menaces et 1 billion de dollars n'améliorent pas le travail des réseaux neuronaux

Vous avez sûrement vu ces "trucs secrets" pour contrôler les réseaux neuronaux. Comme les menaces, les promesses de récompenses, les manipulations émotionnelles. Mais fonctionnent-ils vraiment ? Des chercheurs de l'Université de Pennsylvanie et de la Wharton School ont mené une expérience à grande échelle avec 5 modèles avancés : Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini et GPT o4-mini.