问题——从“算力越多越好”到“电从哪来、怎么用得更省”。
生成式人工智能带动训练与推理需求快速增长,数据中心成为算力供给的关键载体,也成为能源消耗的重要增量来源。
公开数据显示,2024年我国数据中心总耗电量约1660亿度,约占全国用电量的1.68%;随着大模型应用深入产业端与消费端,用电占比仍有上行趋势。
算力扩张与电力约束之间的不平衡,正对数据中心建设节奏、运营成本以及区域能源承载能力形成现实压力。
原因——能耗高并非单点问题,而是“芯片—集群—机房”系统性矛盾集中体现。
一是算力供给与真实负载存在错配。
部分AI芯片研发长期强调峰值指标,追逐理论性能,但数据中心实际任务往往呈现稀疏性、间歇性和混合性特征,导致算力利用率难以与能耗同步匹配:不少算力闲置时仍消耗相当电力,形成“有效算力不够用、无效耗电降不下”的矛盾。
与此同时,多模态与多任务并行成为常态,业务在不同任务间切换频繁,若软硬件协同不足、调度效率不高,额外开销会进一步放大能耗。
二是算力需求增长速度显著快于能效改善速度。
传统意义上,芯片工艺与集成度提升遵循相对稳定的迭代周期,而当前大模型训练与推理需求呈现更短周期的爆发式增长,推动集群规模迅速放大。
“万卡集群”已较为常见,面向更大规模训练与高并发推理的“十万卡级”集群建设成为行业竞争新变量。
以高性能GPU为代表的算力单元功耗本就较高,当数量级扩张时,即便单卡能效略有提升,整体用电仍可能快速攀升,进而抬升电力容量、变配电、供冷等全链条投入。
三是机房配套系统能耗占比高,特别是制冷环节成为关键掣肘。
数据中心用电不仅用于计算,还包括服务器其他部件、网络与存储设备、照明及不间断电源等,其中制冷系统常占较大比重,部分场景甚至接近总能耗的一半。
我国数据中心平均PUE仍有下降空间,与国际先进水平相比存在差距,说明在供配电架构、气流组织、温控策略、液冷应用、设备能效以及运维管理等方面,仍具备可观的系统优化潜力。
影响——电力成为“硬约束”,正在重塑产业竞争规则。
其一,成本结构被改写。
电费及相关配套投入在运营成本中的比重持续提升,若能效水平不高,数据中心的单位算力成本将难以下降,进一步影响大模型训练、推理服务和应用创新的商业可持续性。
其二,布局逻辑发生变化。
数据中心不再只看网络与用户覆盖,更要看电力资源、绿电供给、消纳能力与政策约束。
能否获得稳定、低碳、可预期的电力与指标,正在成为项目落地与扩容的前置条件。
其三,产业链竞争焦点外溢。
单纯依靠更先进制程或更高峰值算力已难形成决定性优势,系统级优化、软硬件协同、能源与算力协同调度能力将成为新的核心壁垒,数据中心竞争从“拼硬件”加速转向“拼效率、拼管理、拼绿色”。
对策——以系统工程思维提升“单位电力产出”的算力。
首先,推动“以场景为中心”的算力供给。
芯片与系统设计需要从真实工作负载出发,提升对稀疏计算、混合精度、不同模态任务切换的适配能力,减少无效功耗。
同时通过编译器、算子库、调度系统与模型结构协同优化,提高算力利用率,让同样的电力产生更多有效算力。
其次,强化集群与机房层面的能效治理。
围绕PUE持续优化供配电、制冷与气流组织,结合高效冷源、余热利用、液冷与浸没式等技术路线,在不同气候与业务场景中选择更具性价比的方案;同时提升运维数字化水平,通过精细化监测与策略控制降低“过冷、过供”的隐性浪费。
再次,推进算力与电力双向协同。
按照有关部署,到2025年底算力电力双向协同机制将初步形成,国家枢纽节点新建数据中心绿电占比目标更高。
通过绿电交易、源网荷储协同、峰谷调节与需求响应等方式,提升清洁能源使用比例与电力系统韧性,为算力增长提供更可持续的能源基础。
前景——从“规模扩张”走向“高质量供给”将成为主线。
可以预见,未来一段时期大模型应用仍将推动算力需求增长,但数据中心发展将更强调单位能耗产出、绿色低碳与综合效益。
能否在芯片、系统软件、集群工程、能源结构与运营管理上形成协同优势,将决定企业与区域在新一轮算力产业竞合中的位置。
以节能降碳为牵引,数据中心将从“拼装式扩容”转向“精细化运营”,从“单点技术突破”转向“体系化能力竞争”。
电力消耗问题的出现,本质上反映了产业发展阶段的转变。
在追求算力极限的时代,我们需要重新审视"更快更强"的定义,转向"够用且高效"的新目标。
这不仅是一个技术问题,更是一个关乎产业可持续发展的战略问题。
只有当芯片设计、数据中心架构、能源供给形成协同机制,产业才能在满足爆炸性算力需求的同时,实现真正的绿色发展。
这个转变,将深刻影响未来十年全球科技产业的竞争格局。