Annoncé lors de l'événement Ignite l'année dernièreDeux puces personnalisées pour les services cloud Azure, notamment l'accélérateur d'IA Azure Maia optimisé pour l'exécution des charges de travail d'IA et les applications d'IA générées automatiquement, ainsi que le processeur Azure Cobalt conçu avec l'architecture Arm pour les besoins généraux du cloud computing. Lors de la conférence Ignite 2024 de cette année, Microsoft a également annoncé le lancement d'Azure Integrated HSM, une puce personnalisée pour renforcer la sécurité des données, et a annoncé le lancement du premier DPU personnalisé de Microsoft pour partager les charges de travail de transmission de données au sein du serveur.
Microsoft a déclaré qu'Azure Integrated HSM sera intégré à tous les serveurs Azure à partir de 2025, offrant une protection de la sécurité des données sous la forme de matériel dédié et renforçant la gestion des clés de service afin que toutes les données puissent être protégées par des mécanismes de cryptage et de clé sans affecter les performances de fonctionnement du service ou augmenter les délais de transmission.
Par ailleurs, Microsoft a annoncé le lancement de son propre DPU personnalisé, baptisé Azure Boost DPU, qui répartit le débit de données et la charge de travail de transmission au sein du serveur. Offrant des performances élevées et une faible consommation d'énergie, il permet de concentrer les performances de calcul du serveur sur les opérations de service. Le DPU Azure Boost gère les tâches de transmission de données, et la consommation globale des serveurs équipés de ce DPU devrait être 3 à 4 fois inférieure à celle des serveurs existants.
Outre l'utilisation continue de ses propres processeurs personnalisés, Microsoft a annoncé qu'il continuerait d'utiliser les processeurs NVIDIA et AMD pour ses serveurs Azure. Cela inclut le lancement de la plateforme informatique GB200 de NVIDIA, annoncée cette année et conçue avec l'architecture d'affichage « Blackwell », et du nouveau processeur serveur EPYC d'AMD, pour répondre aux besoins informatiques d'intelligence artificielle à plus grande échelle.
Concernant l'infrastructure serveur, Microsoft a également annoncé l'introduction d'un système de refroidissement liquide répondant aux besoins du calcul d'IA à grande échelle, permettant un fonctionnement plus stable des systèmes serveurs. Microsoft s'est également associé à Meta pour développer un nouveau rack d'alimentation catégorisé. Grâce à des alimentations 400 V CC, chaque rack serveur peut augmenter de 35 % le nombre d'accélérateurs d'IA. De plus, le système s'adapte dynamiquement aux besoins d'alimentation des différentes échelles de calcul d'IA, ce qui optimise la consommation d'énergie.







