Concernant le Trillium, nom de codeTPU de 6e générationMohan Pichika, chef de produit de Google Cloud, a développé ce point plus tôt et a souligné que les services Google Cloud offrent actuellement des options de composants informatiques d'accélération plus diversifiées pour répondre aux besoins des applications de déploiement de services de différents clients.

TPU n'est qu'une partie du calcul accéléré de Google Cloud
Concernant l'objectif actuel du marché de développer l'intelligence artificielle générale (IAG) et la question de savoir si des composants d'accélération unifiés peuvent répondre aux besoins informatiques, Mohan Pichika estime que cet idéal n'est pas encore atteignable. Par conséquent, la clé est de fournir des composants d'accélération adaptés aux différents besoins informatiques.
Par exemple, dans le service Google Cloud actuel, en plus de fournir ses propres composants d'accélération TPU, il coopère en fait avec des fabricants de processeurs tels qu'Intel, AMD et NVDIA, et fournira également des processeurs personnalisés construits sur l'architecture Arm Neroverse à l'avenir.Axion, répondant ainsi aux différences de besoins de déploiement informatique des différents clients.
Le TPU de première génération, lancé en 2015, a été conçu principalement pour accélérer les calculs à grande échelle pour les services Google, tels que YouTube et la recherche Google. Depuis le lancement du TPU de deuxième génération en 1, Google a mis son TPU et ses versions ultérieures à la disposition de tous les clients Google Cloud dans le monde (y compris à Taïwan). Cela inclut le TPU de sixième génération, nom de code Trillium, lancé l'année dernière. Bien que sa disponibilité puisse varier selon les régions, il est généralement accessible à tous les clients Google Cloud.
Cependant, Mohan Pichika a également expliqué que différents composants d'accélération ont des optimisations différentes pour la gestion des projets, et compte tenu des coûts de performance et de prix, les services Google Cloud continuent d'offrir différentes options de composants d'accélération, permettant à différents clients de choisir le meilleur composant d'accélération pour déployer des services tout en répondant aux besoins informatiques de différentes échelles de modèles d'IA.
Lors de la présentation Google NEXT'24 l'année dernière, Mark Lohmeyer, vice-président de Google Cloud et directeur général de l'informatique et de l'intelligence artificielle/architecture d'apprentissage automatique, a révélé que Google pourrait envisager de lancer davantage de processeurs personnalisés à l'avenir, ce qui signifie que Google fournira également des processeurs personnalisés pour différents besoins informatiques.Processeurs personnalisés avec des conceptions fonctionnelles différenciées.

TPU lui-même vise à accélérer le calcul à grande échelle et à améliorer l'efficacité de l'apprentissage automatique.
Le TPU lui-même est principalement conçu pour accélérer le calcul à grande échelle et améliorer l'efficacité de l'apprentissage automatique. Cela inclut l'unité de multiplication matricielle améliorée (MXU), une fréquence d'horloge de fonctionnement accrue et une capacité mémoire HBM plus importante dans le TPU de 6e génération, tous destinés à accélérer l'efficacité du calcul. De plus, l'architecture réseau Jupiter permet la création de plus grandes échelles de calcul Pod (jusqu'à 256 clusters par Pod), s'étendant ainsi à l'échelle du supercalcul, permettant à tous les TPU de s'interconnecter et de fonctionner à des vitesses de transmission de l'ordre du pétaoctet par seconde.
Cependant, Google n'a pas fourni de détails spécifiques sur la question de savoir si l'utilisation par les TPU de 6e génération d'une technologie de communication optique personnalisée pour obtenir une connectivité directe de puce à puce, augmentant ainsi la bande passante de transmission de données, est similaire à la conception NVLink de NVIDIA ou à la conception UltraFusion utilisée par Apple dans ses processeurs Apple Silicon.
以目前第6代TPU設計來看,訓練效能提升為前一代的4倍以上、推論處理量峰值表現增加為3倍、能源效率提升67%、每個晶片峰值效能比前一代提升4.7倍,而HBM記憶體容量提升1倍、晶片間互連網路傳輸頻寬提升1倍,並且能以Jupiter網路架構連接多達10萬組TPU,形成龐大運算網路。
De plus, le TPU de 6e génération présente des performances d'entraînement par dollar 2.5 fois supérieures à celles de la génération précédente et des performances d'inférence 1.4 fois supérieures, soulignant ainsi une amélioration significative des performances durables.
Il n’existe actuellement aucun projet de suivi avec des solutions d’appareils d’IA locaux ou de petits supercalculateurs.
Au CES 2025, NVIDIA a dévoilé son « Projet DIGITS », un supercalculateur d'IA ultra-compact, construit à partir de son GPU à architecture Blackwell et de processeurs Arm personnalisés. Qualcomm a également utilisé son accélérateur Cloud AI pour créer des solutions d'intelligence artificielle locales. Google serait-il également intéressé par le lancement d'un projet similaire ?
Mohan Pichika a déclaré que Google n'avait actuellement aucun projet de ce type, car l'entreprise n'est pas spécialisée dans la conception et la production de puces et se concentre principalement sur la satisfaction des besoins de ses clients en matière d'applications de déploiement cloud. Par conséquent, Google estime que la fourniture actuelle de composants d'accélération TPU et la coopération avec Intel, AMD, NVIDIA et d'autres entreprises sur différentes applications de composants informatiques lui permettront de mieux répondre aux besoins de ses clients.


