数据中心高能耗困局:跳出 PUE 误区,探寻节能路径
“不冒烟的高能耗工厂”“吃电巨兽”—— 这些词汇正被用来描述数据中心的高能耗问题。随着国内数据中心数量急速攀升,这些昼夜不停运行、支撑海量数据服务的设施,正吞噬着大量电力。中国电子节能技术协会数据中心节能技术委员会秘书长吕天文曾表示,中国数据中心耗电量已连续八年以超过 12% 的速度增长,预计 2020 年总耗电量将达到 2023 亿千瓦时。
在 9 月 12 日接受《每日经济新闻》记者(以下简称 NBD)采访时,吕天文深入分析了数据中心能耗的核心问题,指出了当前能耗评价体系的局限,并提出了针对性的节能建议。
一、谈能耗指标:IT 系统耗电也很关键,唯 PUE 论是不全面的
1. 严控 PUE 不能完全解决能耗问题
吕天文指出,控制 PUE(电能使用效率)仅能衡量数据中心基础设施的能效,却无法覆盖 IT 系统的能耗,甚至可能陷入 “悖论”:
PUE 的计算公式为 “整个数据中心的能耗 ÷IT 系统的能耗”。若 IT 系统能耗增加,即使整体能耗上升,PUE 值反而可能下降(例如,IT 系统能耗占比从 50% 升至 80%,PUE 从 2 降至 1.25)。因此,“唯 PUE 论” 存在明显局限 —— 它仅反映基础设施的能效,却忽视了占数据中心能耗大头的 IT 系统。
2. IT 系统能耗缺乏完善评价指标
目前,针对 IT 系统能耗的衡量指标尚未成熟。吕天文透露,其团队承接了国家节能中心的相关课题,正致力于研究适合国内数据中心的综合评价体系,“PUE 是重要组成部分,但不能忽略 IT 系统这一主要能耗来源,否则评价体系就是不完善的。”
二、谈节能方法:从 IT 产品到制冷技术,多维度降低能耗
1. IT 系统节能:优先选择低耗存储与优化服务器
存储设备:网络存储是 IT 系统中的高耗能环节,采用 SSD 闪存盘可降低 60%-70% 的能耗;惰性气体盘(如氖气盘)也能节约 10%-20% 的能耗,远优于普通机械硬盘。
服务器:近年服务器能耗呈上升趋势,因 GPU(图形处理器)逐渐替代 CPU(中央处理器)—— 同等面积下,GPU 核数更多、计算方式更复杂,发热量显著高于 CPU,需针对性优化散热与运行效率。
2. 制冷系统:液冷、蒸发冷却等技术潜力显著
液冷技术:纯浸没式液冷系统可节约数据中心总能耗的 30%-40%,几乎省去传统空调的能耗,是未来重要方向,但目前主要应用于超算中心和验证性项目,需培养市场并制定标准。
蒸发冷却空调:可省去压缩机冷源能耗,节能 10%-20%,适合大规模部署的数据中心,尤其在北方地区优势明显。
氟泵型空调:类似 “汽车四驱系统”,能最大限度利用室外自然冷源,减少压缩机启动次数,在北方小规模数据中心(1 万平方米以下)中节能效果显著。
3. 地域优势:北方与高海拔地区更适合建数据中心
北方地区冬季寒冷、高海拔地区气温低,可充分利用自然环境冷却,减少人工制冷能耗。相比之下,南方地区需对数据中心系统进行更精细化设计,才能达到同等节能效果。
三、谈发展趋势:2025 年或现能耗拐点,技术爆发是关键
1. 能耗增长态势与拐点预测
吕天文认为,2025 年前数据中心能耗仍将持续增长,但期间可能出现技术爆发,推动能耗下降 —— 若节能技术带来的节能量超过新增能耗,将出现 “能耗拐点”。
核心技术驱动力包括:
IT 系统:SSD 闪存全面替代机械硬盘,大幅降低存储能耗;
制冷系统:液冷、蒸发冷却技术规模化应用,削减基础设施能耗。
按此趋势,新建数据中心的能耗或仅为当前同等规模设施的 50%。
2. 对国外 “极端选址” 的理性看待
微软、Facebook 等科技巨头将数据中心建在水下、北极圈附近以减少冷却成本,吕天文认为这类做法缺乏普适性:
可靠性优先:数据中心的核心是稳定运行,极端环境可能牺牲可靠性,属于 “伪创新”;
推广价值低:特殊选址难以复制,且偏离技术普适性原则,国内不应盲目效仿。
结语:构建综合评价体系,技术与管理并重
数据中心的高能耗问题,不能仅靠严控 PUE 解决。未来需建立涵盖 IT 系统与基础设施的综合能效评价体系,同时推动 SSD 存储、液冷、蒸发冷却等技术的规模化应用。北方地区可依托自然环境优势布局数据中心,南方则需通过精细化设计优化能耗。
只有跳出单一指标的局限,从技术创新、地域适配、评价体系完善多维度发力,才能推动数据中心从 “吃电巨兽” 转型为高效、低碳的数字基础设施。