Au cours du GTC 2025, NVIDIA a également annoncé plusieurs développements de l'écosystème d'applications d'IA pour l'architecture d'affichage Blackwell, notamment le lancement du logiciel d'inférence open source NVIDIA Dynamo, la série Llama Nemotron de modèles d'IA d'inférence ouverts et la conception de référence personnalisée de la plateforme de données d'IA NVIDIA pour répondre aux besoins des charges de travail d'inférence d'IA exigeantes.
NVIDIA Dynamo, disponible en tant que logiciel d'inférence open source
NVIDIA Dynamo, successeur du NVIDIA Triton Inference Server et disponible en tant que logiciel d'inférence open source, offre la capacité de coordonner et d'accélérer les calculs sur des milliers de GPU, fonctionnant au coût le plus bas et avec la plus grande efficacité, accélérant et faisant ainsi évoluer le développement de modèles d'inférence d'intelligence artificielle.
En utilisant le même nombre de GPU, NVIDIA Dynamo multiplie jusqu'à deux fois les performances et les revenus de l'usine d'IA lors de l'exécution du modèle Llama sur le système Hopper. Lors de l'exécution du modèle DeepSeek-R200 sur un grand cluster de racks GB72 NVL1, l'optimisation intelligente de l'inférence de NVIDIA Dynamo multiplie par plus de 30 le nombre de jetons générés par chaque GPU, améliorant ainsi considérablement les capacités d'inférence.
NVIDIA Dynamo peut être utilisé aussi bien pour les services d'IA basés sur des agents que pour les services d'IA distribués. Il devrait être disponible via les microservices NVIDIA NIM et sera ultérieurement pris en charge par la plateforme logicielle NVIDIA AI Enterprise, offrant une sécurité, un support et une stabilité de niveau production.
Lancement de la série de modèles Llama Nemotron à architecture ouverte
NVIDIA a également lancé la série de modèles Llama Nemotron, dotés d'une architecture ouverte, permettant aux développeurs et aux serveurs de créer rapidement des services d'agents d'intelligence artificielle (IA) capables de fonctionner de manière autonome ou en équipe pour résoudre des tâches complexes sur une base prédéfinie. Accenture, Amdocs, Atlassian, Box, Cadence, Crowdstrike, Deloitte, IQVIA, Microsoft, SAP et ServiceNow se sont associés à NVIDIA pour lancer des services d'agents d'IA d'inférence capables de révolutionner les modèles de travail traditionnels.
Les modèles de la série Llama Nemotron seront également disponibles via les microservices NVIDIA NIM, avec des modèles Nano, Super et Ultra disponibles pour offrir une flexibilité de déploiement variable. Ils seront également téléchargeables sur le site web de NVIDIA et sur Hugging Face.
Conception de la plateforme de données NVIDIA AI
La conception de la plateforme de données NVIDIA AI annoncée cette fois-ci permet aux entreprises de créer un nouveau niveau d'infrastructure d'IA pour le nombre croissant de charges de travail d'inférence d'IA grâce à cette conception de référence personnalisable.
Les fournisseurs de stockage peuvent optimiser leur infrastructure d'IA en exploitant les GPU NVIDIA Blackwell, les DPU NVIDIA BlueField, la technologie réseau NVIDIA Spectrum-X et la bibliothèque d'inférence open source NVIDIA Dynamo.
Les fournisseurs de plateformes de données et de stockage, notamment DDN, Dell, HPE, Hitachi Vantara, IBM, NetApp, Nutanix, Pure Storage, VAST Data et WEKA, se sont associés à NVIDIA pour créer des plateformes de données d'IA personnalisées qui raisonnent et répondent à des requêtes complexes sur les données d'entreprise.
Coopération approfondie avec Google
Lors du GTC 2025, NVIDIA collabore avec Alphabet et Google sur le développement futur de l'intelligence artificielle basée sur les agents et de l'intelligence artificielle physique, y compris l'optimisation des infrastructures et des modèles ouverts, pour apporter des progrès significatifs dans des domaines tels que la robotique et la découverte de médicaments.
Actuellement, Google DeepMind, Isomorphic Labs, Intrinsic et le projet Moonshot de X, Tapestry, utilisent les plateformes NVIDIA Omniverse, NVIDIA Cosmos et NVIDIA Isaac pour piloter le développement.
Google Cloud intégrera également les solutions rack NVIDIA GB300 NVL72 et les GPU NVIDIA RTX PRO 6000 Blackwell Server Edition pour accélérer la recherche et la production d'IA. NVIDIA sera également le premier à adopter SynthID, la technologie de tatouage numérique de Google DeepMind, pour identifier le contenu généré par l'IA et protéger la propriété intellectuelle.
Google Cloud a récemment annoncé l'aperçu des machines virtuelles A4 et A4X, devenant ainsi le premier fournisseur de services cloud à proposer à la fois des unités d'exécution d'architecture NVIDIA B200 et GB200.













