Rapport de ReutersallégationMeta teste actuellement sa nouvelle puce d'accélération d'entraînement d'IA, fabriquée en interne. Si tout se passe bien, cette puce sera utilisée dans des applications d'entraînement d'IA en 2026.
Des entreprises comme Microsoft et AWS ont également proposé de développer leurs propres puces pour réduire les coûts cumulés liés au développement de la technologie de l’intelligence artificielle, tout en réduisant leur dépendance vis-à-vis des fabricants de puces accélératrices tels que NVIDIA pour l’approvisionnement.
Actuellement, la puce développée par Meta est spécifiquement utilisée pour l'entraînement en intelligence artificielle. Elle est réputée plus économe en énergie que les puces accélératrices à usage général de NVIDIA et d'autres entreprises. Elle fait également l'objet de tests de déploiement interne à petite échelle pour répondre aux besoins de l'entraînement automatique en intelligence artificielle générative, de l'exploitation de systèmes de recommandation et de la recherche avancée.
Cette puce fabriquée par nos soins appartient à MetaPuces accélératrices personnalisées de la série MTIAD'une part, deux puces accélératrices ont déjà été lancées. La nouvelle génération de puces accélératrices MTIA est conçue avec une architecture matricielle 8 x 8 et un pipeline de calcul clairsemé amélioré. De plus, grâce à des capacités de stockage, de mémoire et de bande passante de transmission plus importantes, les capacités de calcul intensif et de calcul clairsemé peuvent être multipliées respectivement par 3.5 et 7. Par ailleurs, l'intégration de la fonction réseau sur puce (NoC) permet d'adapter différentes méthodes de calcul aux conditions de latence du réseau afin de gérer des charges de travail plus complexes.








