英伟达AI服务器8年来能耗飙升了100 倍,世界还能否满足人工智能不断增长的能源需求

2025-10-16 09:00:25AI云资讯1903

(AI云资讯消息)英伟达AI服务器的能耗需求正急剧攀升,引发行业对这种增长可持续性的质疑。

人工智能行业正通过硬件升级与大规模集群部署全力提升算力规模。随着OpenAI、Meta等企业倾注资源攻关通用人工智能(AGI),英伟达等芯片制造商的产品策略也愈发激进。据知名半导体分析师王雷(音译,Ray Wang)分享的数据显示,英伟达AI服务器平台代际功耗呈现指数级增长,从安培架构到Kyber架构的演进过程中,能耗增幅高达100倍。

英伟达机架世代功耗大幅跃升源于多重因素,其中最关键在于单机架搭载的GPU数量增加以及单个GPU的热设计功耗代际攀升。以Hopper架构为例,单机箱功耗为10千瓦,而采用Blackwell架构后,随着GPU数量增加,功耗已飙升至近120千瓦。英伟达一直立足于满足行业算力需求,这正导致其机架级解决方案的能耗以惊人速度增长。

比如其他因素,先进NVLink/NVSwitch交换架构的采用、新一代机架的部署以及持续高负载运行,也导致超大规模数据中心的能耗以空前速度增长。值得注意的是,科技巨头们已陷入AI机架集群规模竞赛,衡量标准已升级至吉瓦量级:OpenAI与Meta等企业计划未来数年新增逾10吉瓦算力容量。

参考数据显示,AI超大规模数据中心每消耗1吉瓦电力,约为100万户家庭的用电量。可见科技巨头建设的巨型算力园区AI能耗增速之惊人,单个设施耗电量已相当于中等规模国家的用电总量。

根据国际能源署《2025年能源与人工智能研究报告》预测,到2030年仅AI一项就将导致用电量翻倍,增速达到电网承载能力扩张率的近四倍。更关键的是,全球数据中心建设热潮将推高居民用电成本——特别是毗邻大型数据中心集群的区域。最终,参与AI竞赛的国家都将面临严峻的能源挑战。

相关文章

人工智能企业

更多>>

人工智能硬件

更多>>

人工智能产业

更多>>

人工智能技术

更多>>
AI云资讯(爱云资讯)立足人工智能科技,打造有深度、有前瞻、有影响力的泛科技媒体平台。
合作QQ:1211461360微信号:icloudnews