
OpenAI начала использовать TPU Google, снижая зависимость от Nvidia
OpenAI начала использовать тензорные процессоры Google TPU для поддержки работы ChatGPT и связанных сервисов. Это 1 серьёзный шаг компании к снижению зависимости от инфраструктуры Microsoft и монополии Nvidia.
Что стоит за этим решением? OpenAI арендует мощности Google Cloud с прицелом на сокращение расходов на инференс. Тот самый процесс, когда модель генерирует ответы на наши запросы. До этого момента компания полагалась исключительно на графические процессоры Nvidia через партнёрство с Microsoft и Oracle.
Интересный нюанс. Google не предлагает OpenAI свои самые мощные версии TPU! Технологический гигант приберёг топовые ускорители для внутреннего использования, включая разработку собственных языковых моделей проекта Gemini. Но даже доступ к более ранним версиям TPU — это стратегический ход для OpenAI. В условиях растущего дефицита искусственно-интеллектуальных чипов.
Пока остаётся открытым вопрос: будет ли OpenAI использовать TPU только для инференса? Или замахнётся на обучение своих моделей на этой платформе? В любом случае, гибридная вычислительная инфраструктура даёт компании больше маневренности для масштабирования в условиях жёсткой конкуренции.
Похоже, что монополия Nvidia на рынке искусственного интеллекта начинает постепенно размываться!