Alors que Meta s'engageait à continuer d'acheter des millions de GPU auprès de NVIDIA, son PDG, Mark Zuckerberg, a activement mis en œuvre une stratégie visant à diversifier ses fournisseurs. Récemment, Meta a non seulement annoncé un contrat de location de plusieurs milliards de dollars pour des TPU de Google destinés à l'entraînement de modèles, mais a également révélé un partenariat stratégique intergénérationnel avec AMD d'une puissance pouvant atteindre 6 GW, marquant ainsi l'avènement d'une nouvelle ère de concurrence féroce sur le marché des puces d'IA.
Selon un article de The Information, citant des sources proches du dossier, Meta aurait conclu un accord à long terme avec Google d'une valeur de « plusieurs milliards de dollars ». Au cours des prochaines années, Meta louera les puces d'accélération d'IA de Google, les TPU (Tensor Processing Units), afin de développer des modèles d'IA entièrement nouveaux.
Une décision qui bouleverse le marché : utiliser les TPU pour « l’entraînement des modèles »
Si cet accord entre Meta et Google a suscité autant d'attention sur le marché, c'est parce que Meta a l'intention d'utiliser des TPU pour le processus crucial d'« entraînement de l'IA ».
Auparavant, l'industrie pensait généralement que, du fait de la domination absolue de NVIDIA sur l'écosystème logiciel CUDA et la technologie d'interconnexion de puces NVLink, les autres concurrents (tels qu'AMD ou Google) ne pouvaient prétendre qu'à une part du marché de l'« inférence de modèles », aux exigences d'écosystème moindres. Cependant, la décision de Meta de transférer directement la tâche d'entraînement sur le TPU remet en question l'idée reçue selon laquelle « l'entraînement ne peut reposer que sur NVIDIA ».
Derrière la décision de Meta, outreMTIA, une puce d'entraînement d'IA développée en interneLes progrès n'ont pas été à la hauteur des attentes. Parmi les facteurs concrets, on peut citer les problèmes de montée en puissance de la production, dus à des dysfonctionnements techniques et à la complexité du matériel rencontrés lors du déploiement à grande échelle des dernières puces Blackwell de NVIDIA l'année dernière. Face à cette situation, Meta a pris conscience de l'urgence de mettre en place une solution de repli afin de diversifier les risques.
En partenariat avec AMD : un déploiement épique de 6 GW, comprenant des GPU MI450 personnalisés et des processeurs EPYC.
Tout en adoptant Google TPU, Meta collabore également avec un autre fabricant de puces, AMD, pour l'approvisionnement en matériel.
AMD et Meta ont annoncé conjointement un accord de déploiement d'infrastructure sans précédent de 6 GW (gigawatts). Cette collaboration pluriannuelle et évolutive couvrira l'ensemble des GPU Instinct, des CPU EPYC et des systèmes d'IA en rack d'AMD.
Les principaux points forts de ce projet d'envergure sont les suivants :
• Lancement de puces personnalisées :Les premiers appareils de niveau gigawatt devraient commencer à être livrés au cours du second semestre 2026, avec des GPU AMD Instinct MI450 personnalisés et optimisés pour les charges de travail Meta.
• Importance stratégique accrue du processeur :Face à la complexification croissante des infrastructures d'IA, la coordination et l'évolutivité des processeurs deviennent cruciales. Meta a confirmé qu'elle sera un client majeur pour les processeurs EPYC de 6e génération d'AMD (nom de code Venice) et la génération suivante, « Verano ».
• Intégration au niveau du système :Les deux parties fonderont leurs décisions sur l'annonce faite lors du Sommet mondial de l'OCP.Architecture de rack AMD HeliosLe déploiement a été effectué et l'écosystème logiciel ROCm a été profondément intégré.
• Liaison profonde des capitaux propres :Afin de garantir la convergence des intérêts, AMD a émis des bons de souscription liés à la performance au profit de Meta, lui permettant d'acquérir jusqu'à 1.6 millions d'actions. Ces bons seront débloqués progressivement à mesure que Meta atteindra des objectifs d'achat spécifiques (tels que les premières livraisons de 1 GW) et les seuils de prix de l'action AMD.
Le plan de Google : faire de TPU la prochaine machine à imprimer de l’argent.
Pour en revenir à Google, l'obtention de Meta comme client majeur constitue sans aucun doute une victoire importante pour sa stratégie d'externalisation des TPU.
Pour concurrencer frontalement NVIDIA, Google accélère la commercialisation des TPU. Outre la location directe à Meta, Google a même adopté le modèle de « société à vocation spécifique » (SPV) du secteur financier, en s'associant à de grandes institutions d'investissement pour créer des coentreprises, acquérir des TPU par le biais de financements puis les sous-louer, dans le but de faire de cette activité un nouveau moteur de croissance capable de générer des milliards de dollars de revenus.
Analyse des points de vue
Mark Zuckerberg est parfaitement conscient que, si NVIDIA est actuellement le leader mondial des technologies d'IA, laisser Jensen Huang monopoliser le marché entraînerait une perte totale de son pouvoir de négociation futur. C'est pourquoi il maintient simultanément son partenariat avec NVIDIA (en continuant d'acheter des millions de GPU), courtise Google pour combler le déficit de puissance de calcul nécessaire à l'entraînement des systèmes, et investit massivement dans AMD, renforçant ainsi sa participation au capital afin de se constituer un allié de poids capable de rivaliser avec NVIDIA au niveau matériel.
Le principal facteur d'incertitude dans cette guerre de puissance de calcul résidera en fin de compte dans la capacité de production des fonderies de semi-conducteurs (principalement TSMC). Lorsque les GPU de NVIDIA, les puces Instinct d'AMD, les TPU de Google, et même les futures puces développées en interne par Meta, toutes en lice pour les technologies CoWoS les plus avancées et les procédés de fabrication les plus sophistiqués de TSMC, cette bataille à trois est sur le point d'entrer dans sa phase la plus intense et la plus brutale.



