1、电子设备散热问题驱动液冷发展,政策推动数据中心能源效率提升
电子设备发热的本质原因就是工作能量转化为热能的过程。散热是为解决高性能计算设备中的热管理问题而设计的,它们通过直接在芯片或处理器表面移除热量来优化设备性能并延长使用寿命。随着芯片功耗的提升,散热技术从一维热管的线式均温,到二维VC的平面均温,发展到三维的一体式均温,即3DVC技术路径,最后发展到液冷技术。
根据观研报告网发布的《中国液冷行业发展现状分析与投资前景研究报告(2024-2031年)》显示,液冷是使用流动液体将计算机内部元器件产生的热量传递到计算机外,以保证计算机工作在安全温度范围内的一种冷却方法。目前的主流液冷方案,包括冷板式和浸没式,其中冷板式较多应用。
主流液冷方案对比
属性 |
冷板式 |
相变浸没 |
单相浸没 |
成本 |
初始投资中等,运维成本低 |
初始投资及运维成本高 |
初始投资及运维成本高 |
PUE(数据中心能源效率) |
1.1-1.2 |
<1.05 |
<1.09 |
可维护性 |
较简单 |
复杂 |
复杂 |
供应商 |
华为、浪潮曙光、联想超聚变等主流供应商 |
曙光 |
阿里巴巴、H3C、绿色云图、云酷智能、曙光数创 |
应用案例 |
多 |
超算领域较多 |
较多 |
总结 |
初始投资中等,运维成本较低,PUE收益中等,部署方式与风冷相同,从传统模式过渡较平滑 |
初始投资最高,PUE收益最高,使用专用机柜,服务器结构需改造为刀片式 |
初始投资较高,PUE收益较高,部分部件不乘容,服务器结构需改造 |
资料来源:公开资料整理
PUE=数据中心总能耗/IT设备能耗。PUE是评价数据中心能源效率的核心指标,其数值越接近1,表示数据中心能效越高。空调系统在数据中心能耗占比仅次于IT设备,在无法升级IT系统时,降低空调系统能耗是重要环节。当空调系统能耗占比从38%下降到18%时,数据中心的PUE也从1.92下降到1.3。
截至2022年全球中大型数据中心平均PUE为1.55,国内为1.49,根据“双碳”和“东数西算”双重政策,全国新建大型、超大型数据中心平均PUE降到1.3以下,集群内PUE要求东部≤1.25、西部≤1.2,先进示范工程≤1.15。
资料来源:公开资料整理
国家对于数据中心PUE的相关要求
时间 | 部门 | 文件 | 相关内容 |
2021年7月 | 工信部 | 《新型数据中心发展三年行动计划(2021-2023年)》 | 到2023年底,新建大型及以上数据中心PUE降低到1.3以下,严寒和寒冷地区降低到1.25以下 |
2021年12月 | 国家发改委等四部门 | 《贯彻落实碳达峰碳中和目标要求推动数据中心和5G等新型基础设施绿色高质量发展实施方案》 | 到2025年,数据中心和5G基本形成绿色集约的一体化运行格局。全国新建大型超大型数据中心平均电能利用效率降到1.3以下,国家枢纽节点进一步降到1.25以下,绿色低碳等级达到4A级以上 |
2022年6月 | 工信部等六部门 | 《工业能效提升行动计划》 | 到2025年,新建大型、超大型数据中心PUE优于1.3 |
2022年8月 | 工信部等七部门 | 《信息通信行业绿色低碳发展行动计划(2022-2025年)》 | 到2025年,全国新建大型、超大型数据中心PUE降到1.3以下,改建核心机房PUE降到1.5以下 |
资料来源:公开资料整理
各省市对于数据中心PUE的相关要求
时间 | 省市 | 文件 | 相关内容 |
2023年7月 | 北京 | 《北京市发展和改革委员会关于印发进一步加强 数据中心项目节能审查若干规定的通知》 | 新建、扩建数据中心,年能源消费量小于1万吨标准煤(电力按等价值计算,下同)的项目PUE值不应高于1.3;年能源消费量大于等于1万吨标准煤且小于2 万吨标准煤的项目,PUE值不应高于1.25;年能源消费量大于等于2万吨标准煤且小于3万吨标准煤的项目,PUE值不应高于1.2;年能源消费量大于等于3万吨标准煤的项目,PUE值不应高于1.15; |
2023年12月 | 江苏 | 《推进长三角枢纽节点芜湖数据中心集群建设若 干举措》 | 平均上架率不低于65%,数据中心电能利用效率(PUE)小于1.25; |
2023年12月 | 深圳 | 《深圳市算力基础设施高质量发展行动计划 (2024-2025)》 | 到2025年,新建数据中心电能利用效率(PUE)降低到1.25以下; |
2024年3月 | 北京 | 《北京市算力基础设施建设实施方案(2024— 2027年)》 | 本市新建和改扩建智算中心PUE值一般不超过1.25,年能耗超过3万吨标煤的大规模先进智算中心PUE值一般不超过1.15; |
2024年4月 | 上海 | 《上海市推动大规模设备更新和消费品以旧换新 行动计划(2024-2027年)》 | 新建数据中心能源利用效率(PUE)不高于1.25;加快既有数据中心升级改造,加大高效制冷技术和新能源推广应用力度,力争改造后能源利用效率(PUE)不高于1.4 |
资料来源:公开资料整理
冷板式液冷已经在HPC、AI高密计算领域商用超过8年时间,技术成熟、生态完善、总体成本可控,整体产业链相对更为成熟。此外,从实物图可以看出,冷板式液冷较风冷时服务器侧和机房侧的改动均较小,对客户的使用习惯改变不大,硬盘、光模块等部件与风冷一致,运维模式、机房承重与风冷场景也较为类似,更适合当下进行规模商用。现阶段,中国液冷数据中心市场以冷板式为主,在智算中心建设加速的背景下,综合考虑产业链成熟度、客户接受度等多因素,短期内放量仍将以冷板式方案为主。
资料来源:观研天下数据中心整理
2、AI的发展将带动服务器出货量增长,亦将推动液冷设备的持续提升
液冷产业链包括上游的产品零部件提供商、中游的液冷服务器和基础设施提供商及下游的数据中心运营商和各类使用主体。
产业链上游:主要为产品零部件及液冷设备,包括快速接头、CDU、电磁阀、浸没液冷Tank、manifold、冷却液等组件或产品供应商。部分代表厂商有英维克、3M、云酷、竞鼎、诺亚、广东合一、绿色云图等。
产业链中游:主要为液冷服务器、芯片厂商以及液冷集成设施、模块与机柜等,部分代表厂商有华为、中兴、浪潮、曙光、新华三、联想、超聚变、英特尔等。
产业链下游:主要包括三家电信运营商,百度、阿里巴巴、腾讯、京东等互联网企业以及信息化行业应用客户,主要在电信信息、互联网、政府、金融、交通和能源等信息化应用。目前,阿里巴巴以单相浸没式液冷为主要发展方向,其他用户以冷板式液冷试点应用居多。
资料来源:观研天下数据中心整理
2023年6月,三大运营商联合发布《电信运营商液冷技术白皮书》,提出三年液冷发展愿景:2023年开展技术验证、2024年开展规模测试、2025年及以后开展规模应用。在技术路线上,电信运营商现阶段将主要推进冷板式液冷与单相浸没式液冷两种方案。当前,运营商数据中心仍以低功率机架为主,考虑到高功率机架的需求分布,液冷需求或将主要从发力AI的互联网厂商起步,运营商在液冷产业推进链条上排序本应较靠后。白皮书的发布标志着运营商主动成为液冷产业推动者,进一步加速液冷技术及生态成熟。
随着各行业数字化转型,以及人工智能、大数据、5G、AIGC等技术推动,我国算力中心建设规模高速增长。截至2023年,我国提供算力服务的在用机架数达810万标准机架,算力规模230EFLOPS。2023年10月,工信部等六部门发布《算力基础设施高质量发展行动计划》,到2025年,中国算力规模将超过300EFLOPS,其中,智能算力占比将达到35%。
资料来源:中国信通院,观研天下数据中心整理
除了国内,全球市场上同样是AI服务出货量持续增长的预期,也将带动液冷行业的持续高增长。2024年,英伟达发布B200,采用N4P制程,封装2080亿晶体管,而H100晶体管为800亿、采用N4制程,这带来B200封装密度提升、功耗达1000W,对散热技术提出更高要求,预计2026年全球A I服务器出货量达到236.9万台。
资料来源:NVD,观研天下数据中心整理(YM)
【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。