Post Thumbnail

Le PDG de Baidu change de position sur l’open source suite à la percée de DeepSeek

Le PDG de Baidu, Robin Li, a déclaré lors du Sommet mondial des gouvernements à Dubaï que les investissements dans les centres de données et l’infrastructure cloud restent nécessaires, malgré les réalisations de DeepSeek dans l’optimisation des grands modèles d’IA.

“Les investissements dans l’infrastructure cloud restent cruciaux. La création de modèles surpassant les développements existants nécessite une puissance de calcul significative,” a souligné Li, s’adressant aux participants du sommet. Le terme “puissance de calcul” fait référence aux ressources matérielles permettant aux modèles d’IA de fonctionner, y compris l’entraînement des données, le traitement de l’information et la génération de prédictions.

Cette déclaration intervient dans un contexte d’attention croissante portée à la startup chinoise DeepSeek, qui a développé des modèles de langage comparables en performance aux systèmes leaders comme GPT d’OpenAI mais nécessitant significativement moins de ressources computationnelles. Cette percée a remis en question la nécessité d’investissements à grande échelle dans l’infrastructure d’IA.

Baidu, l’une des premières entreprises chinoises à lancer des produits d’IA après la sortie de ChatGPT fin 2022, a créé le grand modèle de langage Ernie, qui selon l’entreprise égale GPT-4. Cependant, le modèle a connu une distribution limitée parmi les utilisateurs.

Le changement de position de Li concernant le développement de la technologie d’IA est notable. Auparavant, il affirmait que l’émergence d’une entreprise comme OpenAI en Chine était peu probable et défendait le code source fermé comme seule voie viable pour le développement de l’IA. Cependant, lors du sommet de mardi, Li a reconnu la nature imprévisible de l’innovation, illustrée par le succès soudain de DeepSeek : “Il est impossible de prédire quand et d’où viendront les innovations.”

Li a également noté que les limitations en puissance de calcul ont stimulé les entreprises chinoises à innover dans la réduction des coûts. De plus, il a assoupli sa position sur le développement en code source fermé, reconnaissant que les approches ouvertes pourraient accélérer l’adoption des technologies d’IA.

Auteur: AIvengo
Depuis 5 ans, je travaille dans l'apprentissage automatique et l'intelligence artificielle. Et ce domaine ne cesse de m'étonner, de m'inspirer et de m'intéresser.

Latest News

ChatGPT appelle les utilisateurs "graines d'étoiles" de la planète Lyra

Il s'avère que ChatGPT peut entraîner les utilisateurs dans le monde de théories scientifiquement non fondées et mystiques.

La musique IA déclenche des émotions plus fortes que la musique humaine

Vous êtes-vous déjà demandé pourquoi une mélodie donne la chair de poule tandis qu'une autre laisse indifférent ? Les scientifiques ont découvert quelque chose d'intéressant. La musique créée par l'intelligence artificielle déclenche chez les gens des réactions émotionnelles plus intenses que les compositions écrites par des humains.

GPT-5 a été piraté en 24 heures

2 entreprises de recherche indépendantes NeuralTrust et SPLX ont découvert des vulnérabilités critiques dans le système de sécurité du nouveau modèle seulement 24 heures après la sortie de GPT-5. Pour comparaison, Grok-4 a été piraté en 2 jours, rendant le cas de GPT-5 encore plus alarmant.

Cloudflare a bloqué Perplexity pour 6 millions de requêtes cachées par jour

Cloudflare a porté un coup écrasant à Perplexity AI, bloquant l'accès de la startup de recherche à des milliers de sites. La raison ? Scannung caché de ressources web d'une ampleur sans précédent malgré les interdictions explicites des propriétaires !

Les menaces et 1 billion de dollars n'améliorent pas le travail des réseaux neuronaux

Vous avez sûrement vu ces "trucs secrets" pour contrôler les réseaux neuronaux. Comme les menaces, les promesses de récompenses, les manipulations émotionnelles. Mais fonctionnent-ils vraiment ? Des chercheurs de l'Université de Pennsylvanie et de la Wharton School ont mené une expérience à grande échelle avec 5 modèles avancés : Gemini 1.5 Flash, Gemini 2.0 Flash, GPT-4o, GPT-4o-mini et GPT o4-mini.