
OpenAI begann Google TPUs zu nutzen und reduzierte Abhängigkeit von Nvidia
OpenAI begann, Googles Tensor Processing Units TPU zur Unterstützung von ChatGPT und verwandten Services zu nutzen. Das ist ein ernsthafter Schritt des Unternehmens zur Reduzierung der Abhängigkeit von Microsofts Infrastruktur und Nvidias Monopol.
Was steckt hinter dieser Entscheidung? OpenAI mietet Google Cloud-Kapazitäten mit dem Ziel, die Ausgaben für Inferenz zu reduzieren. Jener Prozess, wenn das Modell Antworten auf unsere Anfragen generiert. Bis zu diesem Moment verließ sich das Unternehmen ausschließlich auf Nvidia-Grafikprozessoren über die Partnerschaft mit Microsoft und Oracle.
Interessante Nuance. Google bietet OpenAI nicht seine leistungsstärksten TPU-Versionen an! Der Technologie-Gigant behielt die Top-Beschleuniger für den internen Gebrauch, einschließlich der Entwicklung eigener Sprachmodelle des Gemini-Projekts. Aber selbst der Zugang zu früheren TPU-Versionen ist ein strategischer Zug für OpenAI. Unter den Bedingungen des wachsenden Mangels an KI-Chips.
Bislang bleibt die Frage offen: wird OpenAI TPU nur für Inferenz nutzen? Oder wird es sich an das Training seiner Modelle auf dieser Plattform wagen? In jedem Fall gibt die hybride Recheninfrastruktur dem Unternehmen mehr Manövrierfähigkeit für die Skalierung unter den Bedingungen harter Konkurrenz.
Es scheint, dass Nvidias Monopol auf dem KI-Markt allmählich zu erodieren beginnt!