Alors que divers types de technologies de génération automatique d'intelligence artificielle commencent à prévaloir, certaines personnes commencent à réagirConfidentialité, sécurité et autres questionsDe plus, la consommation d’énergie causée par le processus d’exploitation sera évidemment un problème auquel de nombreuses personnes prêteront attention ensuite.
Selon le site Web de surveillance du trafic SimilarwebStatistiques,OpenAI推出的ChatGPT服務已經在今年3月內累積吸引全球地區約16億次使用量,相比2月時的使用量已經增加約60%,更是1月時的3倍左右。
Tout comme Google Search et d'autres services, chaque utilisation du service ChatGPT génère une consommation d'énergie importante lors des calculs. Plus le nombre d'utilisateurs augmente, plus la consommation cumulée double.
En supposant que chaque utilisateur pose en moyenne cinq questions par session, ChatGPT a généré un total cumulé d'environ 5 milliards de questions en mars de cette année, soit une moyenne de 3 millions de questions par jour. En supposant que chaque question comporte environ 80 mots, ChatGPT doit traiter plus de 2.7 milliards d'inférences de mots chaque jour. Sachant qu'un accélérateur NVIDIA A30 met environ 80 seconde pour inférer un seul mot, cela signifie qu'un seul accélérateur A100 nécessiterait au moins 0.35 100 heures de traitement quotidien de ces inférences.
Les données ci-dessus n'incluent pas les pics d'utilisation, les scénarios spécifiques pouvant nécessiter une puissance de calcul encore plus importante, ni d'autres exigences de calcul. Pour obtenir des temps de réponse de calcul plus rapides, le service ChatGPT ne peut pas effectuer toutes les opérations avec un seul accélérateur A100 ; au moins 3.24 XNUMX accélérateurs sont nécessaires pour maintenir la réactivité du service.
那麼,如果以3.24萬張A100加速器作計算,大約是以4000台各自搭載8張A100加速器的NVIDIA DGX A100超級電腦加總運算,而平均每台DGX A100超級電腦售價為19.9萬美元,最大運作公號為6.5kW,加總下來的成本就將近8億美元,3月時的總耗電量就達1872萬kW。
D'après les données ci-dessus, la consommation électrique moyenne générée par le service ChatGPT pour chaque question utilisateur complétée est suffisante pour allumer une ampoule de 60 W pendant 140 secondes, et la facture d'électricité totale accumulée est considérable. Cependant, cette consommation n'inclut pas l'énergie nécessaire au refroidissement du système ni les autres dépenses d'énergie liées au fonctionnement général.
Cependant, tout comme les services de recherche actuels, à mesure que les algorithmes de la technologie de l’IA continuent de s’améliorer, couplés aux améliorations des processus de semi-conducteurs et des modèles d’exploitation, les problèmes de consommation d’énergie derrière le calcul de l’IA devraient également continuer à s’améliorer à l’avenir.



