Selon Foresight News, OpenAI a commencé à louer des puces TPU de Google pour fournir de la puissance de calcul pour des produits comme ChatGPT. Cela marque la première utilisation significative de puces non Nvidia par l'entreprise. La collaboration vise à réduire la dépendance d'OpenAI aux centres de données de Microsoft et offre à Google une opportunité de contester la domination de Nvidia sur le marché des GPU. OpenAI a l'intention de réduire les coûts de calcul d'inférence en utilisant les puces TPU basées sur le cloud de Google.