Post Thumbnail

Le nouveau Grok 3 de xAI dépasse GPT-4 et Claude 3.5

xAI, la société d’Elon Musk, a présenté une version révolutionnaire du modèle de langage Grok 3, qui a établi de nouveaux standards de performance dans le domaine de l’intelligence artificielle, dépassant les principaux concurrents dont OpenAI GPT-4, Claude 3.5, Deepseek V3 et Gemini 2 Pro.

Pour la première fois dans l’histoire de l’IA, un modèle a franchi la barre des 1400 points ELO dans le système d’évaluation LMArena, se classant premier dans toutes les catégories de test. Grok 3 a démontré des résultats impressionnants dans les domaines clés : 52% en mode standard et 96% avec le mode raisonnement activé sur le test AIME 24, 75% (s’améliorant à 85%) sur le test GPQA, et de 57% à 80% sur les tests de programmation LiveCodeBench.

Le fondement technique de la performance sans précédent de Grok 3 est le superordinateur Colossus, équipé de 100 000 GPU NVIDIA H100. La puissance de calcul de la nouvelle version est 10 fois supérieure à celle de son prédécesseur Grok 2.

Le modèle a reçu plusieurs fonctionnalités innovantes, incluant le mode “Big Brain” pour des performances améliorées, des capacités de raisonnement améliorées et l’ajout prochain d’une interface vocale. Les utilisateurs pourront activer des capacités de raisonnement avancées pour résoudre des problèmes complexes en mathématiques, sciences et programmation en utilisant les commandes “Think” et “Think harder”.

“Le modèle a atteint un niveau d’intelligence effrayamment élevé”, a commenté Elon Musk, soulignant les capacités créatives et émergentes sans précédent du système. Le succès de Grok 3 dans la création de code de programme créatif et la génération de jeux innovants est particulièrement noté.

xAI prévoit de lancer une version web de Grok 3 avec plusieurs personnalités d’IA personnalisées pour correspondre aux préférences des utilisateurs. La société a également annoncé son intention de rendre la version précédente, Grok 2, open source dans les mois à venir.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.
Latest News
UBTech enverra des robots Walker S2 servir à la frontière chinoise pour $37 millions

L'entreprise chinoise UBTech a remporté un contrat de $37 millions. Et enverra des robots humanoïdes Walker S2 servir à la frontière de la Chine avec le Vietnam. South China Morning Post rapporte que les robots interagiront avec les touristes et le personnel, effectueront des opérations logistiques, inspecteront les marchandises et patrouilleront le territoire. Et caractéristiquement — ils peuvent changer leur batterie de manière autonome.

Anthropic a révélé accidentellement un document interne sur "l'âme" de Claude

Anthropic a révélé accidentellement "l'âme" de l'intelligence artificielle à un utilisateur. Et ce n'est pas une métaphore. C'est un document interne tout à fait concret.

Jensen Huang a ordonné aux employés de Nvidia d'utiliser l'IA partout

Jensen Huang a annoncé une mobilisation totale sous la bannière de l'intelligence artificielle à l'intérieur de Nvidia. Et ce n'est plus une recommandation. C'est une exigence.

Les chatbots IA génèrent du contenu qui aggrave les troubles alimentaires

Une étude conjointe de l'Université Stanford et du Center for Democracy and Technology a montré un tableau inquiétant. Les chatbots avec intelligence artificielle représentent un risque sérieux pour les personnes souffrant de troubles alimentaires. Les scientifiques avertissent que les réseaux neuronaux distribuent des conseils nuisibles sur les régimes. Ils proposent des moyens de cacher le trouble et génèrent du "contenu inspirant pour perdre du poids" qui aggrave le problème.

OpenAGI a publié le modèle Lux qui dépasse Google et OpenAI

La startup OpenAGI a publié le modèle Lux pour le contrôle d'ordinateur et affirme que c'est une percée. Selon les benchmarks, le modèle dépasse d'une génération entière les analogues de Google, OpenAI et Anthropic. De plus, il fonctionne plus vite. Environ 1 seconde par étape au lieu de 3 secondes chez les concurrents. Et 10 fois moins cher en coût par traitement de 1 token.