Dans son rapport financier du troisième trimestre de l'exercice 10, clos fin octobre, NVIDIA a annoncé que son chiffre d'affaires du trimestre précédent avait atteint 2025 milliards de dollars, soit une hausse de 350.82 % par rapport à la même période de l'année précédente, et que son bénéfice net avait atteint 94 milliards de dollars, soit une hausse de 193.09 %. L'entreprise a également indiqué que des clients comme Microsoft, Oracle et OpenAI avaient commencé à se procurer des puces d'accélération basées sur l'architecture d'affichage « Blackwell ». Environ 109 1 ensembles d'échantillons sont actuellement disponibles pour des tests externes, et l'entreprise est entrée dans la phase de production de masse.
Colette Kress, directrice financière de NVIDIA, a également déclaré que les livraisons de Blackwell augmenteraient d'ici 2025, ce qui devrait générer des milliards de dollars de chiffre d'affaires. Parallèlement, les livraisons de la puce accélératrice H200, déjà en cours, sont également en hausse, et la demande pour Blackwell devrait continuer à croître.
Cependant, les méthodes actuelles de formation des modèles d'intelligence artificielle ont commencé à changer, et les entreprises technologiques tentent également d'améliorer l'efficacité des opérations d'intelligence artificielle de différentes manières, comme le propose OpenAI.Modèle de langage naturel « o1 »Cette approche est différente de l’approche précédente de NVIDIA qui consistait à utiliser l’accélération GPU pour réduire le temps nécessaire à la pré-formation de grandes quantités de données, favorisant ainsi la croissance de l’informatique d’intelligence artificielle.
Certaines entreprises technologiques ont même commencé à envisager différentes manières de construire des modèles d'IA. Certaines ont même tendance à utiliser des modèles d'IA existants comme base et à affiner de petits modèles d'IA avec des temps de calcul plus rapides et des réponses plus précises, réduisant ainsi la forte dépendance à l'entraînement accéléré par GPU.
En réponse, Jensen Huang, PDG de NVIDIA, s'est réjoui de cette évolution du marché, affirmant qu'elle marquait un nouvel élan pour le développement du secteur de l'intelligence artificielle. Elle signifiait également que la proportion de puces d'accélération utilisées pour l'inférence en intelligence artificielle allait augmenter, au lieu de se limiter à l'entraînement de base des modèles.
Cependant, Jensen Huang estime que le pré-entraînement reste crucial pour le développement de l'IA, et de nombreux développeurs continuent d'améliorer les méthodes de pré-entraînement des modèles afin d'en étendre les capacités. Huang a déclaré que cette règle empirique démontre que la construction de modèles fondamentaux reste cruciale, alors que leur échelle continue de croître.
Pour NVIDIA, l'utilisation des GPU pour l'accélération des calculs reste un axe de développement majeur. Parallèlement, l'entreprise estime que la demande du marché pour les GPU reste très forte. L'accélération des premiers modèles, mais aussi des opérations ultérieures d'inférence, nécessitera l'utilisation de GPU pour l'accélération.








