Lors de son discours d'ouverture du CES 2026, Lisa Su, PDG d'AMD, a réaffirmé son ambition de dominer le calcul IA. Contrairement à ses précédentes interventions axées sur les performances d'une seule puce, AMD a cette fois présenté une solution d'IA complète, englobant les centres de données, l'informatique de périphérie et les dispositifs de développement embarqués.
Parmi ces innovations, celle qui a le plus retenu l'attention de la communauté des développeurs est sans conteste le Ryzen AI Halo, présenté comme le « système de développement d'IA le plus compact au monde ». Côté infrastructure, il utilise le rack HELIOS AI, associé à l'accélérateur Instinct MI455 gravé en 2 nm, démontrant ainsi que la puissance de calcul humaine va officiellement passer du niveau Zetta au niveau Yotta (10 puissance 24). Il met également en avant le « Venice », un processeur EPYC de nouvelle génération basé sur l'architecture Zen 6.
Ryzen AI Halo : Un modèle à 2000 milliards de paramètres dans votre poche
Pour répondre aux besoins des développeurs en matière d'entraînement et d'inférence locaux, AMD a lancé une petite machine de développement appelée Ryzen AI Halo.
Cet appareil, dont le lancement est prévu au deuxième trimestre de cette année, est équipé du processeur Ryzen AI Max le plus puissant d'AMD et de 128 Go de mémoire unifiée (UMA), ce qui lui confère une incroyable puissance de calcul locale pour exécuter en douceur de grands modèles de langage avec jusqu'à 200 milliards de paramètres (2000B) sans aucune connexion réseau.
Le Ryzen AI 400 fait ses débuts en même temps que la série Max+.
Outre les machines de développement, AMD a également lancé la série Ryzen AI 400 pour ordinateurs portables sur le marché grand public. Ces processeurs intègrent jusqu'à 12 cœurs CPU basés sur l'architecture Zen 5, 16 cœurs GPU basés sur l'architecture RDNA 3.5 et un NPU XDNA 2 offrant une puissance de calcul de 60 TOPS. Les premiers produits destinés aux applications devraient être disponibles dès cette semaine.
Pour les créateurs les plus exigeants, le nouveau processeur Ryzen AI Max+ offre des performances encore supérieures : jusqu’à 16 cœurs Zen 5, 40 cœurs GPU RDNA 3.5 et une puissance de calcul NPU de 50 TOPS. AMD affirme également que cette gamme de processeurs surpasse largement le dernier MacBook Pro en matière d’IA et de création de contenu, et qu’elle est 1.7 fois plus économique que NVIDIA DGX Spark pour l’exécution de modèles GPT open source.
Centre de données : vers une plateforme rack HELIOS à l’échelle de Yotta et un accélérateur MI455
Du côté des infrastructures, AMD a présenté sa vision d'atteindre une puissance de calcul de niveau « Yatoscale », avec pour objectif de multiplier par 100 sa capacité de calcul en cinq ans. À cette fin, AMD a annoncé le lancement de sa plateforme rack de nouvelle génération, HELIOS.
HELIOS utilise une conception standard OCP double largeur développée en collaboration avec Meta, avec un rack unique pesant près de 3 175 kg. Ses nœuds de calcul intègrent les technologies de base suivantes :
• GPU Instinct MI455 :採用2nm及3nm製程,電晶體數量高達3200億個,配備432GB HBM4記憶體,效能比前代MI355提升10倍。
• Processeur EPYC Venice :Il utilise un processus de gravure de 2 nm et une architecture Zen 6, possède jusqu'à 256 cœurs, et sa bande passante mémoire et GPU est définie comme celle du « meilleur processeur IA ».
• Puce réseau Pensando : Grâce à l'Ethernet 800G et au protocole Ultra Accelerator Link, 72 GPU dans un seul rack peuvent fonctionner ensemble pour fournir jusqu'à 2.9 exaflops de puissance de calcul.
Par ailleurs, Lisa Su a laissé entendre que la série MI500, dont le lancement est prévu pour 2027, adoptera la nouvelle architecture CDNA et la mémoire HBM4E, dans le but de multiplier par plus de 1 000 les performances de l’IA en quatre ans.
Écosystème logiciel : ROCm est essentiel
Au-delà du matériel, AMD comprend également l'importance de l'écosystème logiciel. Lisa Su a réaffirmé la stratégie « à commencer par ROCm », soulignant qu'AMD est le seul acteur capable d'assurer une ouverture complète de la pile technologique.
ROCm bénéficie déjà d'une prise en charge native par des projets open source majeurs tels que PyTorch, vLLM et Hugging Face. Fei-Fei Li, experte en IA et PDG de World Labs, ainsi que d'autres personnalités, étaient présentes lors de l'événement de lancement pour apporter leur soutien. Elles ont notamment déclaré que leur modèle Marble, optimisé sur le MI325X grâce à ROCm, avait quadruplé ses performances en quelques semaines seulement. Greg Brockman, cofondateur d'OpenAI, et Michael Kratsios, conseiller technologique en chef de la Maison Blanche, étaient également présents, témoignant de l'influence croissante d'AMD dans l'industrie, les gouvernements et le monde universitaire.








