Pour intégrer l'IA à WhatsApp, qui compte des milliards d'utilisateurs, Meta n'a reculé devant aucune dépense. Outre l'acquisition de millions de GPU NVIDIA, l'entreprise utilisera également la technologie de « calcul confidentiel » afin de résoudre les problèmes de confidentialité liés aux assistants IA et au chiffrement de bout en bout.
Méta plus tôtAnnoncerUn accord de partenariat à long terme avec NVIDIA prévoit l'achat de millions de GPU basés sur les architectures d'affichage Blackwell et Rubin les plus récentes. L'aspect le plus intéressant de cet accord réside non seulement dans l'ampleur de cet achat de matériel, mais aussi dans la manière dont Meta entend exploiter cette puissance de calcul, notamment pour son application de messagerie WhatsApp.
Selon certaines sources, Meta va officiellement déployer la technologie NVIDIA dans WhatsApp.technologie « informatique confidentielle »Cela permettra à WhatsApp de bénéficier de puissantes capacités d'IA (telles qu'un service client IA, des assistants ou des réponses génératives) tout en garantissant que la confidentialité et l'intégrité des données des utilisateurs ne soient pas compromises.
Solution de confidentialité basée sur l'IA de WhatsApp : chiffrement même pendant les calculs
WhatsApp a toujours mis en avant son chiffrement de bout en bout (E2EE) comme argument de vente, ce qui rend l'importation de fonctionnalités d'IA sur le serveur assez complexe, car l'IA a généralement besoin de « voir » vos messages pour pouvoir les traiter.
La technologie de calcul confidentiel de NVIDIA offre des solutions pour protéger la sécurité des données « pendant le traitement », et non seulement lors de la transmission ou du stockage. Ainsi, lorsque l'IA de WhatsApp traite les messages, les données s'exécutent dans un environnement matériel isolé (environnement d'exécution de confiance), et même les fournisseurs de services cloud ou les plateformes de messagerie ne peuvent y accéder.
Dans son blog officiel, NVIDIA a déclaré que cette technologie protège non seulement la vie privée des utilisateurs, mais aussi les droits de propriété intellectuelle des développeurs de logiciels (tels que Meta ou les fournisseurs d'agents d'IA tiers), empêchant ainsi la fuite des paramètres ou de la logique de leurs modèles.
Le premier à utiliser un processeur Grace « indépendant » pour l'inférence
Outre les GPU, Meta a également fait des tentatives audacieuses dans l'architecture de son infrastructure.
Meta deviendra la première entreprise technologique au monde à déployer des processeurs NVIDIA Grace de manière autonome.
En règle générale, le processeur Grace est associé à des GPU Hopper et Blackwell (tels que GH200 et GB200), mais Meta a choisi de l'utiliser indépendamment, spécifiquement pour la gestion des charges de travail d'inférence et d'agents.
Cela met également en lumière la stratégie de Meta consistant à répartir la puissance de calcul entre différents types de tâches d'IA : les GPU sont responsables de l'entraînement et des calculs intensifs, tandis que les CPU gèrent l'inférence logique et l'exécution des agents. De plus, Meta utilisera les commutateurs Ethernet Spectrum-X de NVIDIA pour répondre aux besoins de transmission à haut débit des clusters d'IA massifs.
Les dépenses liées à l'IA devraient atteindre 1350 milliards de dollars d'ici 2026.
Cette collaboration s'inscrit dans le contexte des ambitieux plans d'investissement de Meta. Plus tôt cette année, Meta a annoncé son intention d'investir jusqu'à 1350 milliards de dollars dans le développement de l'IA d'ici 2026. Les analystes estiment que plusieurs dizaines de milliards de dollars de ce financement iront dans les caisses de NVIDIA.
Pour soutenir cette puissance de calcul, Meta prévoit de construire jusqu'à 30 nouveaux centres de données d'ici 2028, dont 26 seront situés aux États-Unis continentaux. Il s'agit d'un engagement à long terme en matière d'infrastructures, représentant un investissement total pouvant atteindre 6000 milliards de dollars.
Analyse des points de vue
La démarche de Meta s'attaque en réalité au principal problème de la « mise en œuvre de l'IA » : la confiance.
Pour des produits comme WhatsApp, qui sont axés sur la communication privée, l'ajout de fonctionnalités similaires à ChatGPT enfreindrait inévitablement la promesse selon laquelle « vous seul et le destinataire pouvez voir le message ».
Grâce à la technologie de calcul confidentiel de NVIDIA, Meta cherche à concilier la puissance de l'IA dans le cloud et la confidentialité et la sécurité des appareils locaux. Si ce modèle s'avère concluant, il servira de référence pour d'autres services axés sur la protection de la vie privée, comme l'IA médicale et financière.
En revanche, l'acquisition par Meta d'un grand nombre de processeurs Grace indépendants laisse penser que les futures applications d'IA ne se limiteront plus à la simple génération de texte ou d'images, mais impliqueront davantage d'« agents d'IA » capables de gérer des raisonnements logiques complexes, le contrôle des processus et la mémoire à long terme. L'exécution de ces tâches sur des processeurs spécialement conçus pourrait s'avérer plus rentable que l'utilisation de GPU, tant en termes de coût que d'efficacité énergétique.



