电力饥饿的AI时代:英伟达H100 GPU耗电揭示

在今天的数字时代,英伟达(Nvidia)的H100 AI GPU芯片功率和耗电情况,以及AI算力的能耗趋势,都是引人注目的热门话题。

 

01
英伟达的每个H100 GPU的功耗及用电情况

英伟达的每个H100 GPU的功耗高达700W,700W这意味着,如果你把它和一个常见的家用电器比较,比如一台功率为700瓦的微波炉,它们的耗电量是相同的。但不同的是,微波炉每天只用几分钟,而H100 GPU24小时不停地工作。

 

让我们用一个形象的比喻来说明这个情况:如果我们把英伟达的H100 GPU比作小小的电力“饥饿怪兽”,那么它们正在以一个越来越快的速度吞噬电力,就像一座小城市的日常需求一样。

 

令人惊讶的是,这些“怪兽”每年将消耗高达13091.82 GWh的电力(Nvidia 预计: 2023 年销售 150 万台 H100 GPU,在 2024 年销售 200 万台 H100 GPU,那么到 2024 年底将部署 350 万台此类处理器),这个数字可以这样理解:它大约等于我国一个中等规模省份一年的电力消耗量,或是大约相当于北京和广州两个超大城市一年用电量的总和的一半左右。

 

02
英伟达H100到2024年B100/200的效能联想

但并非所有的新闻都令人担忧。随着AIHPC GPU的效率提高,每单位功耗所完成的工作量正在增加,这意味着我们正在向着更高效的方向迈进。

 

例如,从2020年Nvidia的A100到预计在2024年发布的B100/200,每瓦特的算力(FP32等效)从49 GFLOPS提升至了152 GFLOPS,增长了200%以上。

 

这显示了科技进步的潜力,能够在满足日益增长的计算需求的同时,减少对能源的依赖。

03
未来AI算力的需求增长预计

来AI算力的需求增长预计到2030年,基于AI应用的全球算力需求将增长至20 ZFLOPS至108 ZFLOPS(FP32等效),是2022年的22倍至120倍。

 

这个巨大的增长显示了对电力资源的巨大需求。将这一计算能力的增长转化为一个更形象的比喻,想象一下,如果每个浮点运算是一颗沙粒。

 

2022年,全球AI的算力就像是一个中等大小的沙滩,上面有大约1千亿亿颗沙粒。到了2030年,这个数字将膨胀到至少一个沙漠那么大,那里有20千万亿亿到108千万亿亿颗沙粒。这个沙漠如此之大,以至于它几乎可以覆盖整个地球表面

 

AI应用的算力增长对全球电量的需求影响显著。数据显示,未来经济发展是低碳的,但并非低电耗的。AI应用等新需求将持续推动电力需求的增长。

 

这既是挑战也是机遇。随着数据中心用电量的急剧增加,优化数据中心的能效和采用新的绿色能源解决方案变得尤为重要。例如,通过提高数据中心的功率使用效率(PUE),以及通过采用液冷技术来优化热管理系统,都是减少能耗的有效方式。

 

这是一个关于平衡的故事:在追求技术进步的同时,也需要考虑到环境的可持续性。

 

 

感谢您的阅读

期待您的互动、反馈📝

让我们共同学习和探讨

 

转载请联系本公众号获得授权

咨询与合作:zysn@witcloudnet.com

 

 
 
 
END
 
 
 
 
 
 

 

 
 
携手并进
 
共建未来
 

 

 

新闻动态

NEWS