一、人工智能浪潮推动下,液冷服务器从“可选项”踏入“必选项”
近几年随着AI技术的爆火,尤其是在chatGPT大模型遍地开花后,全球的算力规模将以几何倍数增长。据有关测算到2030年,全球AI算力将增长500倍。而算力需求的暴涨,造成了芯片功耗快速提升,普通的散热系统已经解决不了这个问题。在此背景下,液冷技术应运而生,成为数据中心散热的新宠。
液冷服务器,亦被称为水冷服务器,是指液体注入服务器,通过冷热交换带走服务器的散热的一种服务器。液冷服务器是一种革新性的服务器技术,这一技术的突出亮点在于液体的热容量与热传导率远胜于空气,使得液冷服务器能够更为高效地直接或间接冷却服务器内部的高发热组件。
根据观研报告网发布的《中国液冷服务器行业现状深度分析与投资前景预测报告(2025-2032年)》显示,与传统风冷相比,液冷具有高效能、高可靠、超静音、节省空间等优势,同时其利用液体冷媒为数据中心发热部件进行高效换热,更能满足高密度、高功耗的散热需求,是解决“算力热”与“散热焦虑”问题的最优解。当下,在人工智能浪潮推动下,算力需求由通用算力向智算以及超算升级是行业的发展大趋势,液冷服务器也从“可选项”踏入“必选项”,成为了 “刚需” 硬件。
二、AI算力需求激增推动液冷市场爆发,市场发展空间巨大
算力产业是当前我国发展最为火热的重要产业之一,其市场发展潜力及空间巨大。近年来随着人工智能技术(AI技术)飞速发展,应用场景不断丰富,我国算力需求爆发式增长。尤其是进入2024年以来,我国人工智能大模型发展百花齐放,70%的训练和 95%的推理都依托于算力。随着各行业数字化、智能化转型加速推进,从制造业的智能生产到服务业的精准营销,海量数据的处理与复杂算法的运行,都急需强大、高效且稳定的算力支持,一场围绕算力的产业变革与布局也在我国加速铺开。
数据显示,截至2024年9月,我国算力总规模达246EFLOPS(指每秒进行百亿亿次浮点运算的能力),算力应用项目超过1.3万个,在用算力中心机架总规模超过830万标准机架,算力总规模居世界前列。截止到2024年底,我国智能算力规模达725.3 EFLOPS,同比增长74.1%。同时,我国58.3%的算力中心已连接到国家骨干网,国家算力枢纽节点已全面实现20毫秒时延保障能力,全国65%的省市可以在5毫秒内接入一个算力数据集群。
数据来源:公开数据,观研天下整理
伴随着AI技术与各行各业不断融合,这些领域对AI技术的依赖程度越来越高,需要更强大的算力来支撑复杂的数据处理和分析任务。在此背景下,基于AI发展的智算中心的电力功耗将不断高增,使得行业节能减排的需求强烈,这进而带动了液冷技术的加快应用和液冷服务器市场的扩张。当前,人工智能以及大语言模型等技术仍处于飞速发展,对于算力的需求还将持续增长。
当前,生成式AI引领的技术变革带动下,全球AI算力需求高涨,驱动数据中心朝高密度化发展,带动数据中心计算芯片功耗持续上升。有数据显示,2023年至2026年,全球数据中心能耗将从49GW增至96GW,三年CAGR超 25%,其中AI算力能耗激增,到2026年将超40GW,占数据中心总能耗超40%,成为数据中心能耗增长的主要推手。由此可见,我国液冷市场发展巨大,液冷服务器有着巨大的发展空间。
三、数据中心快速发展下液冷黄金时代来临,市场正展现出强劲增长势能和巨大发展前景
当前,随着人工智能、大数据、物联网等技术的蓬勃发展,尤其是国内供给和需求两端都出现积极变化,对于数据中心的需求也将随之增加,导致数据中心规模持续增长。根据工信部数据显示,截至2023年底,我国在用数据中心机架总规模超过810万标准机架,算力总规模达到230eflops,智能算力规模达到70eflops,增速超过70%。截至2024年上半年,我国已经建设和正在建设的智算中心超过250个;智算中心招投标相关事件791起,同比增长高达407%;已有超20个城市建设了智算中心。截至2024年5月底,全国规划具有超万张GPU集群的智算中心已有十多个。
数据来源:公开数据,观研天下整理
与此同时,数据中心的能耗问题也日益受到关注,特别是在“数字中国”和“双碳”目标的背景下,高功耗与低碳目标之间的矛盾愈发显著。据统计,我国数据中心能耗占全社会用电量的比例持续上升,预计2030年我国数据中心年能耗约占国内社会用电量的3%至4%,总量可达4800亿千瓦时。
数据中心作为算力基础设施的载体,主要为服务器、存储、机柜等ICT设备提供运行环境场所,整个产业链通常涉及IT、电力和制冷,其中制冷系统是数据中心IT设备稳定运行的重要保障,也是维持数据中心良好运转的基础。
能耗是计算过程的直接必然产物,以热量形式存在,与算力相伴相生。数据中心是算力网络的重要基础设施。数据中心运转的算力越高,则能耗越高。一旦能耗的热量累积超过阈值,就会限制算力的发挥。
因此,在当前数智算力需求大爆发、数据中心快速发展的背景下,如何优化布局冷却系统和高效低耗地将数据中心的环境温度控制在工作温度范围内成为了众多数据中心厂商和温控方案解决商的重要课题。而突破桎梏的秘诀,就在于把热量彻底、有效地带走。在此背景下,液冷发展大势所趋,突破的关键在于冷链系统化、全液冷以及制冷剂创新。
当前,数据中心散热技术主要有以空气为介质进行散热的风冷技术和以液体为介质的液冷技术。其中风冷技术是目前普遍应用的散热技术,但在AI集群、高性能计算(HPC)集群等散热密度较高的场景下,液冷技术优势尽显,推动数据中心液冷时代加速到来。因此当下在可持续性要求和AI算力功耗不断上升的背景下,数据中心冷却市场正展现出强劲增长势能和巨大发展前景。
四、液冷技术爆发带动液冷服务器高速增长,预计到2028年规模将达到102亿美元
当前我国数据中心液冷正加速起势。数据中心作为我国“新基建”重要组成,被赋予绿色低碳等新内涵,政策层面也明确提到到2025年,全国新建大型、超大型数据中心平均电能利用效率(PUE)降到1.3以下,国家枢纽节点进一步降到1.25以下。在国家发展改革委等四部门发布的《数据中心绿色低碳发展专项行动计划》中,也明确指出将因地制宜推动液冷、蒸发冷却、热管、氟泵等高效制冷散热技术,提高自然冷源利用率。根据工信部数据,2023年度国家绿色数据中心PUE平均值为1.26,仍然处于高位水平,而液冷方案能大幅降低PUE,潜在应用空间极大。数据显示, 2023年数据中心冷却市场规模已飙升至76.7亿美元,远超预期,这一增长势头预计将持续至2028年,年均复合增长率(CAGR)将达到18.4%,届时市场规模将达168.7亿美元。
数据来源:公开数据,观研天下整理
液冷技术的爆发,还带动了液冷服务器的高速增长。数据显示,2023年我国液冷服务器同比大增52.6%,市场规模达到15.5亿美元,预计2023-2028年,我国液冷服务器市场年复合增长率将达到45.8%,到2028年这一市场规模将达到102亿美元。多位行业人士认为,2024年可谓液冷元年,2025年有望成为液冷散热正式起飞的一年。
数据来源:公开数据,观研天下整理
从应用领域来看,互联网行业是液冷服务器最大买家,2024年上半年占超60%份额,云服务提供商积极建设液冷数据中心用于处理海量数据与复杂计算任务;电信运营商因技术发展致数据中心规模扩大、能耗突出,对液冷服务器需求快速增长并积极探索相关方案推动建设;金融行业积极采用人工智能技术,鉴于高数据安全要求与能耗攀升、减排压力,对液冷服务器需求渐增且早有试点并计划扩建;制造、服务等其他行业也在探索液冷方案满足计算与节能减排需求。
五、市场中的主流产品以冷板式液冷服务器为主,占比高达 65%以上
通常情况下,液冷服务器有三种方式,分别是冷板式液冷服务器、喷淋式服务器液冷、浸没式液冷服务器。目前市场中的主流液冷解决方案以冷板式液冷为主,占比高达 65%以上。这种增长背后是计算需求的激增,2023 年市场前 3 大厂商(浪潮、超聚变、宁畅)合计占据70%的市场份额。这一高速增长背后是不断增加的计算需求,特别是来自人工智能、5G 及云计算的推动。
三种液冷方式比较
分类 |
作用器件 |
优势 |
冷板式液冷服务器 |
主要解决了高功率密度发热器散热问题,对于低功率密度发热器(例如服务器内存、PSU等)仍采用风冷散热。 |
散热效率高:由于液体比空气的比热大,散热速度远大于空气,因此制冷效率远高于风冷散热。 |
无泄漏风险:冷却液体不与电子器件直接接触,减少了泄漏对硬件的风险。 |
||
噪声更低:服务器内部实现无风扇设计,降低了运行噪音。 |
||
功率密度高:单机柜功率密度可达较高水平,适用于高密度服务器环境。 |
||
浸没式液冷服务器 |
所有高功率密度发热器件和低功率密度发热器件完全浸没在冷却液中,服务器本身结构设计及特殊器件(例如光模块、机械硬盘等)均需要特殊处理。 |
传热效率高:利用液体相变将热量直接带走,减少了传热过程的热阻,相比冷板式液冷具有更高的传热效率。 |
节能环保:能够更有效地回收热能,提高能源利用效率。噪音极低:由于服务器内部无风扇等机械部件,噪音极低。 |
||
可靠性高:由于散热效果优越,硬件的寿命更长,故障率更低。 |
||
喷淋式液冷服务器 |
喷淋液体可以完全覆盖服务器发热器件,同时根据不同发热器件的功率密度,对喷淋板的液孔进行精准化开孔,满足不同功率发热器件的散热需求。 |
高效节能:喷淋式液冷技术能够降低数据中心的制冷能耗,提高能效比。 |
低噪音:由于服务器内部无风扇等机械部件,机房内部环境更加安静。 |
||
高可靠性:喷淋式液冷技术能够更有效地保护硬件免受高温损害,提高硬件的可靠性和寿命。 |
资料来源:公开资料,观研天下整理
数据来源:公开资料,观研天下整理
冷板式液冷服务器,将液冷冷板固定在服务器的主要发热器件上,依靠流经冷板的液体将热量带走达到散热目的。冷板式液冷是将冷却液直接导入冷板,冷板与 GPU 直接接触,以带走热量的散热方法。在冷板中,冷却液通过内部的冷却通道流动,与热源表面发生热交换,吸收热量。冷却液流向冷却塔或热交换器,将热量释放到环境中或带到远端,再重新循环至冷板。
相比于其他液冷技术,冷板式液冷技术在我国起步较早,在可靠性、可维护性、技术成熟度等方面具备优势,且对服务器与动力系统改造较小,IT设备维护较为简单;目前已在数据中心得以广泛应用。
除了冷板式液冷服务器外,浸没式液冷服务器也占据不小的市场份额,是仅次于冷板式液冷服务器的市场产品。浸没式液冷服务器,将发热元件直接浸没在冷却液中,通过冷却液循环带走服务器等设备运行产生的热量。浸没式液冷是一种典型的直接接触液冷技术。目前在我国,浸没式液冷已逐步进入商用部署阶段。
六、企业相继布局抢占领地,目前市场呈现出多元化和集中化的特征
随着液冷技术的不断推广和成本性价比的提升,微软、联想、浪潮、英伟达等国内外知名企业相继布局液冷市场,分一杯羹。他们不仅推出了多款液冷产品,还持续进行技术研发与创新,旨在提升液冷性能并降低成本。例如,英伟达GB200超算服务器性能则可谓“全球独一档”算力系统的存在。英伟达基于两个B200 AI GPU以及自研Grace CPU所打造的AI超算系统GB200,基于大语言模型(LLM)的推理工作负载性能则瞬间能够提升30倍,同时与上一代 Hopper架构相比,GB200成本和能耗大幅度降低约25倍。在具有1750亿参数级别的GPT-3 LLM基准上,GB200的推理性能是H100系统的7倍,并且提供了4倍于H100系统的训练速度。
另外Vertiv和AI芯片霸主英伟达(NVDA.US)合作开发的下一代NVIDIA AI GPU加速数据中心先进液冷解决方案有望适用于GB200,Vertiv 的高能量密度电源和冷却解决方案旨在支持英伟达下一代 GPU 以最佳性能和高可用性安全地运行计算最密集的 AI 工作负载。
英维克已针对高性能算力设备和数据中心,推出了创新的Coolinside液冷机柜及全面的液冷解决方案。
与此同时,随着技术的成熟和成本的降低,我国国内厂商也逐渐崭露头角。当前,我国液冷服务器行业的竞争格局呈现出多元化和集中化的特征,有技术壁垒的限制。例如浪潮信息在液冷领域全栈布局,其通用服务器、高密度服务器、整机柜服务器以及AI服务器四大系列产品均已支持冷板式液冷,并致力于提供液冷数据中心的全生命周期整体解决方案。
目前,我国液冷服务器市场上主要厂商包括浪潮信息、华为、曙光、超聚变等。数据显示,浪潮信息在2024年上半年占据了液冷服务器市场的领先地位,市场份额占比第一。超聚变和宁畅分别位列液冷服务器市场占比的第二、三位,与浪潮信息共同占据了七成左右的市场份额。
预计未来,我国液冷服务器行业的竞争格局仍以国内内部竞争为主,小型企业面临失去市场份额和淘汰风险,市场集中度进一步加剧。主要原因在于:(1)中国液冷技术已经形成技术护城河,国外企业进入中国市场受数据安全限制。(2)行业间竞争程度持续恶化,资本积累成为关键因素。(WW)

【版权提示】观研报告网倡导尊重与保护知识产权。未经许可,任何人不得复制、转载、或以其他方式使用本网站的内容。如发现本站文章存在版权问题,烦请提供版权疑问、身份证明、版权证明、联系方式等发邮件至kf@chinabaogao.com,我们将及时沟通与处理。