Annoncé lors de la conférence Next'25 de cette annéeNom de code « Ironwood »Suite au lancement de sa TPU de 7e génération, vantée pour ses performances exceptionnelles et conçue pour accélérer le traitement de l'IA, Google Cloud a annoncé son déploiement officiel dans les prochaines semaines. Cette technologie permettra l'entraînement de modèles à grande échelle et des opérations d'inférence IA haute capacité et faible latence, tout en répondant aux besoins de calcul massifs engendrés par les flux de travail d'IA multi-agents.
Google souligne qu'Ironwood est supérieur à son prédécesseur, TPU (Nom de code « Trillium »La TPU de 6e génération offre des performances plus de quatre fois supérieures pour les charges de travail d'entraînement et d'inférence. Puce personnalisée la plus puissante et la plus écoénergétique à ce jour, elle accélère le raisonnement et l'analyse proactive des modèles d'intelligence artificielle, permettant ainsi à un plus grand nombre de services d'agents d'IA de s'exécuter plus rapidement.
Google Cloud a également confirmé avoir récemment signé un accord avec son partenaire en intelligence artificielle, Anthropic.Des accords pluriannuels d'une valeur de centaines de milliards de dollarsCela inclut « Ironwood », qui a été officiellement lancé cette fois-ci, et qui fournira jusqu'à 100 million de TPU pour soutenir la formation et le service après-vente de ses modèles de la série Claude.
Tourné vers l'avenir : Ironwood introduit des vitesses d'interconnexion de puces de 9.6 Tb/s et partage la mémoire HBM avec 1.77 PB.
Dans sa précédente déclaration, Google expliquait qu'« Ironwood » est composé de 9 216 puces refroidies par liquide et connectées en série via l'interface d'interconnexion inter-puces (ICI), offrant une puissance de calcul de 42.5 exaflops, soit environ 24 fois celle d'El Capitan, le plus grand supercalculateur au monde. Il peut également gérer le traitement parallèle à très grande échelle des charges de travail d'intelligence artificielle, chaque puce ayant une puissance de calcul de pointe de 4 614 téraflops.
Google souligne que la TPU est le cœur de son système de supercalcul intégré « IA Hypercomputer ». Le nouveau système « Ironwood » offre une évolutivité et des performances système exceptionnelles, et élimine les goulots d'étranglement des données des configurations traditionnelles grâce à des interfaces d'interconnexion puce-à-puce avec un débit de transmission pouvant atteindre 9.6 Tb/s, permettant ainsi à des milliers de puces de fonctionner de concert comme un seul cerveau.
• Une mémoire collective massive :
Cette extension permet un accès partagé à une capacité allant jusqu'à 1.77 pétaoctets (Po) de mémoire HBM (High-bandwidth Memory). Google explique qu'il s'agit d'un « espace de travail partagé » sans précédent pour le supercerveau de l'IA, permettant le chargement complet des modèles d'IA les plus volumineux, ce qui améliore considérablement l'efficacité de calcul et réduit le coût total de possession (TCO).
• Haute fiabilité (OCS) :
En intégrant la technologie de commutation de circuits optiques (OCS) comme structure dynamique, elle peut immédiatement rediriger lorsqu'une interruption est détectée, garantissant ainsi des services d'IA critiques ininterrompus et offrant le plus haut niveau de résilience opérationnelle.
Dans les informations complémentaires fournies par Google, il a été mentionné qu'Ironwood Pod peut fournir 118 fois plus de puissance de calcul FP8 ExaFLOPS que « son principal concurrent », démontrant ainsi ses performances exceptionnelles dans le domaine du calcul spécifique à l'IA.
La commande d'un million d'unités TPU par Anthropic consolide la position de Google dans le domaine des infrastructures d'IA.
L'engagement d'Anthropic à acquérir jusqu'à un million de TPU auprès de Google Cloud constitue sans aucun doute une approbation significative de l'infrastructure d'IA de Google.
Google souligne que ses propres modèles, notamment Gemini, Veo, Imagen et Claude d'Anthropic, sont tous entraînés et déployés sur des TPU.
Cette collaboration fait également écho au rapport sur les résultats de Google Cloud publié la semaine dernière, qui soulignait la demande sans précédent d'infrastructures d'IA (en particulier de TPU) comme l'un de ses principaux moteurs de croissance.
Mise à jour synchrone du processeur Axion ; l’instance N4A passe en mode aperçu.
Parallèlement à l'annonce de son accélérateur d'IA dédié, Google a également souligné que les flux de travail d'IA agentiques nécessitent une étroite collaboration entre les processeurs à usage général et les accélérateurs d'IA. À cette fin, Google a également mis à jour simultanément sa gamme de processeurs basés sur l'architecture Arm :
• Instance N4A (Importer la conception du processeur Axion) :
Basé sur les machines virtuelles (VM) de quatrième génération de la série N de GoogleNouveau processeur AxionL'exemple d'application N4A est actuellement en phase de prévisualisation.
• Efficacité:
Le N4A est présenté comme offrant une rentabilité deux fois supérieure à celle des VM x86 comparables actuelles, ainsi qu'une amélioration de 80 % de la puissance de sortie par watt.
• C4A métal (châssis nu) :
La première instance d'application bare-metal du processeur Axion, C4A metal, sera bientôt disponible en prévisualisation.
La stratégie à long terme de « co-conception au niveau du système »
Google souligne que le succès de son infrastructure d'IA repose sur une stratégie à long terme de « conception collaborative à l'échelle du système », ce qui signifie que la recherche sur les modèles, le développement logiciel et matériel sont tous menés au sein d'une même entité. De la création de la première TPU il y a dix ans, à la naissance de l'architecture Transformer il y a huit ans, jusqu'au déploiement actuel de systèmes de refroidissement liquide avancés avec une disponibilité de 99.999 % à l'échelle du gigawatt, tous ces éléments témoignent de la poursuite de cette stratégie.










