返回首页 >

“吹风扇”“泡冷水” 为“发烧”的AI服务器降温

2026-02-27 07:28   大众新闻

  此前,服务器的降温逻辑相对简单,风冷技术如同给机房装上无数台“风扇”,依靠加速空气流动带走服务器表面的热量。风冷技术成本低、部署快,在单机柜功率低于10千瓦的时代游刃有余。

  然而,数字化与AI浪潮迅速推高了功率密度。

  “当功率密度被推至40千瓦以上,相当于把20台家用电暖器塞进一个冰箱大小的机柜同时烤火,产生的热量几分钟就能烧开一浴缸水。”浪潮通信副总经理郭振君指出,“在此量级的热量面前,仅靠风冷降温捉襟见肘,芯片会因过热而降频,性能大打折扣。”

  不仅如此,当功率超过40千瓦,风冷不仅难以解决芯片局部热点问题,还会让PUE(能源使用效率)急剧攀升至1.3以上。这意味着,每消耗1度电用于核心计算,就需要额外消耗0.3度电用于散热,既无法适配当前高密算力的需求,也难以满足日益严格的节能管控要求。

  政策层面也在持续加压。2024年7月,国家发展改革委等部门明确要求到2025年底,新建及改扩建大型和超大型数据中心PUE降至1.25以内,国家枢纽节点数据中心项目PUE不得高于1.2。这一硬性约束,使得高能效散热方案成为市场竞争的“入场券”。

  通俗来讲,液冷就是利用液体替代空气作为冷却介质,通过液体的循环流动将服务器产生的热量带走。与风冷相比,液冷系统的热交换效率提升3-5倍,能将数据中心PUE降至1.05,接近“理论极限值”。PUE数值越接近1,表明电能越集中用于计算设备本身,几乎把能耗都用在了刀刃上。

猜你喜欢

热点新闻

{$loop_num=0}