
OpenAI a commencé à utiliser les TPU de Google, réduisant la dépendance à Nvidia
OpenAI a commencé à utiliser les unités de traitement tensoriel TPU de Google pour soutenir ChatGPT et les services connexes. C’est un pas sérieux de l’entreprise vers la réduction de la dépendance à l’infrastructure de Microsoft et au monopole de Nvidia.
Qu’est-ce qui se cache derrière cette décision ? OpenAI loue des capacités Google Cloud dans le but de réduire les coûts d’inférence. Ce processus même quand le modèle génère des réponses à nos requêtes. Jusqu’à ce moment, l’entreprise s’appuyait exclusivement sur les processeurs graphiques Nvidia via des partenariats avec Microsoft et Oracle.
Nuance intéressante. Google n’offre pas à OpenAI ses versions TPU les plus puissantes ! Le géant technologique a gardé les accélérateurs top pour usage interne, incluant le développement de ses propres modèles de langage du projet Gemini. Mais même l’accès aux versions TPU antérieures est un mouvement stratégique pour OpenAI. Dans les conditions de pénurie croissante de puces d’IA.
La question reste ouverte jusqu’à présent : OpenAI utilisera-t-il les TPU seulement pour l’inférence ? Ou s’aventurera-t-il dans l’entraînement de ses modèles sur cette plateforme ? Dans tous les cas, l’infrastructure informatique hybride donne à l’entreprise plus de manœuvrabilité pour la mise à l’échelle dans des conditions de concurrence féroce.
Il semble que le monopole de Nvidia sur le marché de l’intelligence artificielle commence progressivement à s’éroder !