Post Thumbnail

OpenAI begann Google TPUs zu nutzen und reduzierte Abhängigkeit von Nvidia

OpenAI begann, Googles Tensor Processing Units TPU zur Unterstützung von ChatGPT und verwandten Services zu nutzen. Das ist ein ernsthafter Schritt des Unternehmens zur Reduzierung der Abhängigkeit von Microsofts Infrastruktur und Nvidias Monopol.

Was steckt hinter dieser Entscheidung? OpenAI mietet Google Cloud-Kapazitäten mit dem Ziel, die Ausgaben für Inferenz zu reduzieren. Jener Prozess, wenn das Modell Antworten auf unsere Anfragen generiert. Bis zu diesem Moment verließ sich das Unternehmen ausschließlich auf Nvidia-Grafikprozessoren über die Partnerschaft mit Microsoft und Oracle.

Interessante Nuance. Google bietet OpenAI nicht seine leistungsstärksten TPU-Versionen an! Der Technologie-Gigant behielt die Top-Beschleuniger für den internen Gebrauch, einschließlich der Entwicklung eigener Sprachmodelle des Gemini-Projekts. Aber selbst der Zugang zu früheren TPU-Versionen ist ein strategischer Zug für OpenAI. Unter den Bedingungen des wachsenden Mangels an KI-Chips.

Bislang bleibt die Frage offen: wird OpenAI TPU nur für Inferenz nutzen? Oder wird es sich an das Training seiner Modelle auf dieser Plattform wagen? In jedem Fall gibt die hybride Recheninfrastruktur dem Unternehmen mehr Manövrierfähigkeit für die Skalierung unter den Bedingungen harter Konkurrenz.

Es scheint, dass Nvidias Monopol auf dem KI-Markt allmählich zu erodieren beginnt!

Autor: AIvengo
Seit 5 Jahren arbeite ich mit maschinellem Lernen und künstlicher Intelligenz. Und dieser Bereich hört nicht auf, mich zu überraschen, zu begeistern und zu interessieren.
Latest News
Nvidia-Chef glaubt, dass es keine KI-Blase gibt

Nvidia-Gründer Jensen Huang zerstreute Bedenken bezüglich einer Blase auf dem KI-Markt. Und seinen Worten nach werden die neuesten Chips des Unternehmens voraussichtlich 0,5 Billionen Dollar Umsatz bringen.

Sam Altman ist müde von Geldfragen

Sam Altman ist müde von Fragen über OpenAIs Geld. Und das wurde während eines gemeinsamen Interviews mit Satya Nadella im Bg2-Podcast offensichtlich.

Anzahl der Stellen für Forward Deployment Engineers stieg um 800%

KI-Unternehmen haben einen neuen Beruf erfunden. Es geht um Forward Deployment Engineers.

OpenAI verspricht vollwertigen KI-Wissenschaftler bis 2028 zu schaffen

OpenAI versprach, bis 2028 einen vollwertigen KI-basierten Wissenschaftler zu schaffen. CEO Sam Altman erklärte auch, dass Deep-Learning-Systeme bis September nächsten Jahres die Funktionen von Forschungswissenschaftlern auf Praktikantenniveau ausführen können. Und das Niveau eines autonomen vollwertigen KI-Forschers könnte bereits 2028 erreicht werden.

Arbeitsplätze für junge IT-Spezialisten in Großbritannien brachen um 46% ein

Wissen Sie, was auf dem Arbeitsmarkt für junge IT-Spezialisten in Großbritannien passiert? Im letzten Jahr brach die Anzahl der Arbeitsplätze für junge Spezialisten um 46% ein. Und es wird ein weiterer Rückgang um 53% prognostiziert, berichtet The Register. Unter Berufung auf Statistiken des Institute of Student Employers.