L'Institut de recherche physique et chimique RIKEN (RIKEN) a récemment annoncé le lancement du projet de développement du supercalculateur « Fugaku Next ». Outre une nouvelle collaboration avec Fujitsu, il a également annoncé que NVIDIA serait un partenaire clé. Le nouveau système devrait être opérationnel dans le centre-ville de Kobe en 2030. L'objectif est de créer un supercalculateur de nouvelle génération combinant calcul haute performance (HPC) traditionnel et intelligence artificielle (IA). Les performances globales des applications devraient être multipliées par 100 par rapport au Fugaku actuel, atteignant environ 50 EFLOPS, soit des performances de calcul de niveau Zetta.
Du HPC basé sur Arm au HPC basé sur l'IA
Lors de son ouverture en 2020, Fugaku est devenu l'un des supercalculateurs les plus rapides au monde, propulsé par le processeur Fujitsu A64FX basé sur Arm, et a imposé les processeurs basés sur Arm comme un acteur clé du marché du HPC. Cependant, avec l'essor récent des modèles de langage d'IA à grande échelle et des applications d'IA générative, le rôle du HPC évolue.
RIKEN a déclaré que Fugaku Next conservera non seulement les capacités traditionnelles de simulation et de calcul scientifique, mais sera également étroitement intégré à l'IA, couvrant divers scénarios d'application tels que la simulation et la conception aérodynamique des véhicules, le développement de médicaments et la simulation quantique. L'objectif est d'améliorer de 5 à 10 fois les performances du HPC traditionnel tout en défiant les performances de calcul de classe Zetta en IA. Grâce à cette approche à double voie, l'entreprise vise à multiplier par 100 les performances globales de ses applications.
Fujitsu MONAKA-X avec GPU NVIDIA
Fugaku Next utilisera le processeur à jeu d'instructions Arm de nouvelle génération de Fujitsu, le « FUJITSU-MONAKA-X », et la technologie NVLink pour une interconnexion haut débit avec les GPU NVIDIA. C'est la première fois qu'un supercalculateur HPC japonais de premier plan adopte une architecture d'accélération GPU, marquant ainsi l'entrée du pays dans l'ère du HPC IA.
Il est crucial que RIKEN et Fujitsu ne se contentent pas d'introduire du matériel ; ils souhaitent plutôt exploiter la pile logicielle NVIDIA CUDA-X pour permettre à Fugaku Next d'utiliser directement divers outils de développement scientifique et d'IA. Parmi ceux-ci figurent NVIDIA cuQuantum (simulation quantique), RAPIDS (science des données), TensorRT (inférence IA) et NeMo (apprentissage et application de modèles de langage à grande échelle). Fugaku Next n'est donc pas seulement une mise à niveau des supercalculateurs traditionnels, mais aussi une nouvelle plateforme nationale capable de prendre en charge l'apprentissage de modèles d'IA et les applications industrielles.
Selon le plan de performance précédemment planifié par l'Institut de recherche physique et chimique RIKEN, l'objectif de performance théorique du calcul vectoriel FP64 de Fugaku Next est d'atteindre plus de 48 PFLOPS pour la partie CPU et plus de 3.0 EFLOPS pour la partie accélération.
De plus, en termes de performances théoriques de calcul matriciel FP16/BF16, le processeur atteindra plus de 1.5 EFLOPS, tandis que l'accélérateur atteindra plus de 150 EFLOPS. Quant aux performances théoriques de calcul matriciel FP8, le processeur atteindra plus de 3.0 EFLOPS, tandis que l'accélérateur vise plus de 300 EFLOPS.
De plus, en termes de capacité de mémoire principale, le processeur et l'unité d'accélération devraient chacun avoir une capacité supérieure à 10 PiB, et la bande passante de la mémoire principale devrait atteindre plus de 7 Po/s pour la partie processeur et plus de 800 Po/s pour l'unité d'accélération.
En termes de performances du système de stockage et de configuration de la capacité, le premier niveau servira de système de fichiers sur site. CHFS et d'autres solutions de systèmes de fichiers sont actuellement à l'étude. Les objectifs de conception sont d'atteindre un temps de vidage mémoire total d'une minute, des IOPS d'une seconde et une capacité au moins deux fois supérieure à la taille totale de la mémoire.
Le deuxième niveau est positionné comme stockage partagé, Lustre ou DAOS étant considéré comme le système de fichiers. L'objectif de conception est de maintenir le temps de vidage mémoire à moins de 5 minutes, les IOPS à un dixième de celles du premier niveau et la capacité à plus de 10 fois la taille totale de la mémoire.
L'équipe de recherche a déclaré qu'elle assurerait un transfert de données fluide entre Fugaku et Fugaku NEXT, tout en corrigeant les instabilités d'accès aux E/S causées par une mémoire insuffisante des nœuds de stockage. Elle favoriserait également la conception matérielle et logicielle garantissant des performances stables, ainsi que le développement de logiciels de systèmes de fichiers durables.
En termes de réseau système, Fugaku Next sera composé de deux méthodes d'interconnexion : un réseau évolutif pour le calcul accéléré et un réseau évolutif pour l'interconnexion des nœuds. Le réseau évolutif permet non seulement d'interconnecter plusieurs GPU au sein d'un nœud, mais également des GPU sur plusieurs nœuds via des commutateurs pour former des clusters de calcul pod. Le réseau évolutif adoptera des spécifications ouvertes prenant en charge IP ou RDMA, et pourra utiliser une architecture réseau indirecte composée de plusieurs couches de commutateurs.
La consommation électrique totale de Fugaku NEXT (nœuds de calcul et systèmes de stockage inclus) sera maintenue en dessous de 40 MW. Comparé au système Fugaku actuel, qui consomme environ 30 MW, Fugaku NEXT améliore significativement les performances de calcul, mais aussi la consommation électrique.
La conception spécifique de Fugaku Next débutera en 2026, devrait être achevée en 2028 et sera mise en fabrication, installation et réglage en 2029, avec pour objectif une mise en service en 2030.
Normalisation et stratégie d'approvisionnement mondiale
Contrairement au système Fugaku actuel, conçu sur mesure pour le Japon, RIKEN souligne que Fugaku Next adoptera un modèle de « co-fabrication avec le Japon ». Grâce à une conception standardisée, la même architecture pourra être étendue à d'autres systèmes HPC internationaux, renforçant ainsi l'influence mondiale du Japon.
Fujitsu a également révélé que MONAKA-X ne sera pas seulement disponible pour une utilisation dans Fugaku Next, mais sera également disponible pour des entreprises telles que Supermicro à l'avenir, démontrant le potentiel commercial de cette architecture CPU.
Les spécifications du processus et du GPU doivent encore être confirmées
Fujitsu n'a pas encore révélé le nom de la fonderie du MONAKA-X, se contentant d'indiquer qu'il utilisera un procédé de gravure de 1.4 nm. L'A64FX est actuellement fabriqué par TSMC, ce qui laisse penser que TSMC reste un partenaire potentiel. Cependant, Fujitsu est également impliqué dans le projet de puce Rapidus au Japon, ce qui laisse d'autres candidats potentiels ouverts.
Quant aux spécifications GPU fournies par NVIDIA, elles restent indéterminées. Ian Buck, vice-président du HPC chez NVIDIA, a révélé que Fugaku Next pourrait ne pas adopter l'architecture GPU Blackwell actuelle ni la future architecture d'affichage Rubin, mais qu'il continuera à proposer la solution la plus adaptée à mesure de l'évolution technologique. Par conséquent, sachant qu'il reste encore cinq ans avant le lancement officiel en 2030, il pourrait être possible d'adopter la version 2028 annoncée précédemment.Feynman (Feynman), ou un GPU d'architecture d'affichage ultérieure.












