
OpenAI comenzó a usar TPUs de Google, reduciendo dependencia de Nvidia
OpenAI comenzó a usar las Unidades de Procesamiento Tensorial TPU de Google para apoyar ChatGPT y servicios relacionados. Este es un paso serio de la empresa hacia reducir la dependencia de la infraestructura de Microsoft y el monopolio de Nvidia.
¿Qué hay detrás de esta decisión? OpenAI está alquilando capacidad de Google Cloud con la mira puesta en recortar costos de inferencia. Ese mismo proceso cuando el modelo genera respuestas a nuestras consultas. Hasta este momento, la empresa dependía exclusivamente de procesadores gráficos Nvidia a través de asociaciones con Microsoft y Oracle.
Matiz interesante. ¡Google no ofrece a OpenAI sus versiones TPU más poderosas! El gigante tecnológico guardó los aceleradores top para uso interno, incluyendo el desarrollo de sus propios modelos de lenguaje del proyecto Gemini. Pero incluso el acceso a versiones TPU anteriores es un movimiento estratégico para OpenAI. Bajo condiciones de creciente escasez de chips de IA.
La pregunta permanece abierta hasta ahora: ¿usará OpenAI TPU solo para inferencia? ¿O se aventurará a entrenar sus modelos en esta plataforma? En cualquier caso, la infraestructura computacional híbrida le da a la empresa más capacidad de maniobra para escalar bajo condiciones de competencia feroz.
¡Parece que el monopolio de Nvidia en el mercado de inteligencia artificial está comenzando a erosionarse gradualmente!