根据热器件是否与冷却液接触,液冷技术可以分为直接接触式和间接接触式两种。直 接接触式是指将冷却液体与发热器件直接接触散热,这类液体包括单相浸没式液冷、两相 浸没式液冷、喷淋式液冷;间接接触式是指冷却液体不与发热器件直接接触,通过散热器 间接散热,这类液体包括单相冷板式液冷、两相冷板式液冷。其中,室外侧包含室外冷 源、一次侧冷却液,室内侧包含冷量分配单元(CDU)、二次侧冷却液以及液冷机柜。该 液冷系统的基本原理是:二次侧冷却液在机柜内吸收设备热量,并通过 CDU 内的换热器 将热量传递给一次侧冷却液,一次侧冷却液通过室外冷源最终将热量释放到大气环境中, 完成散热。
根据冷却液在冷板中是否发生相变,冷板式液冷可以分为单相冷板和两相冷板。单相 冷板式液冷通过液冷板将发热器件的热量间接传递给液冷板中的二次侧冷却液。二次冷却 液在设备吸热和 CDU 放热过程不发生相变。根据液冷板覆盖范围,这种液冷可以分为局 部液冷或全液冷:局部液冷通常仅覆盖高功耗器件,一般带走设备 70%左右的热量,剩余 30%热量仍需通过机房空调或液冷背门以风冷的形式带走;全液冷需要根据通信设备硬件 架构和结构布局定制化设计液冷板,以覆盖所有发热器件。两相冷板不同的是二次侧冷却 液在设备内通过液冷板吸热发生汽化,在 CDU 内冷凝为液态,充分利用了冷却液的相变 潜热,综合散热能力更强,可达 300W/cm2 以上。
以单相冷板式液冷机柜为例,内包含分液器、液冷板、流体连接器、液冷管路、漏液 检测传感器等。1)二次侧冷却液:二次侧热量载体以去离子水、乙二醇水溶液、丙二醇水 溶液为主。2)单相冷板 CDU:可分为集中式和分布式。其中,集中式 CDU 布置在机柜 外,每列机柜布置一台或几台 CDU;分布式 CDU 安装在液冷机柜内,免二次侧管路部 署,可根据机柜功耗灵活部署。3)分液器:用于机柜内流量分配与收集,将低温二次侧冷 却液分配到各设备节点,并收集与液冷板换热升温后的冷却液。4)液冷板:液冷板设计需 要根据设备芯片功耗进行芯片冷板设计。5)流体连接器:可实现无泄漏通断,在设计选型 时需要综合考虑工作流量、温度、压力、流阻特性等。6)液冷管路:二次侧冷却液流通通 路,参与液冷机柜内各设备节点的流量-流阻分配。7)漏液检测传感器:针对沿液冷板、 液冷管路、分液器等可能出现液体泄漏的位置或路径布置,及时检测泄漏状态,并触发漏 液告警策略。
根据冷却液在换热过程中是否相变,浸没式液冷可以分为单相浸没和两相浸没。单相 浸没式液冷通过将发热元件浸没在冷却液中,直接吸收设备产生的热量。通信设备竖插在 浸没机柜内,二次侧低温冷却液由浸没机柜底部流入。二次侧冷却液在循环散热过程中始 终维持液相。两相浸没液冷二次侧冷却液在设备内吸热由液态转化为气态,通过冷凝器冷 凝放热由气态转化为液态。这种液冷技术充分利用液体的相变潜热,散热能力相比于单相 浸没显著提升。
喷淋式液冷是用低温冷却液直接喷淋 IT 组件的发热元件。热后的高温冷却液换热后 再次循环进入服务器喷淋,整个过程中无相变。它和浸没式液冷一样也属于接触式液冷, 差异在于喷淋式加强了对流换热。喷淋式与单相浸没式液冷比较类似,可当作一种特殊形 式的浸没液冷,因此喷淋式可以采用与单相浸没一样的冷却液。
单相液冷为当下主流,多条液冷技术路线快速发展,针对不同应用场景各具优势。单 相冷板式液冷在液冷数据中心的应用占比达 90%以上,是现阶段及未来一段时间业内主流 的液冷技术方案。单相浸没式液冷节能优势更突出,且近年来该技术逐步趋于成熟,相关 产业链快速发展完善,小规模商用不断推进。此外,喷淋式、两相冷板式、两相浸没式这 3 种液冷方案的技术研究和产业生态尚需完善。但于此同时,相关技术路线实际使用中存 在部分问题,如冷板式液冷水基工质泄漏导致设备短路烧毁;单相浸没式液冷散热能力受 液体流速约束,散热能力表现较弱,无法满足更高功耗 CPU/GPU 的散热需求;液冷系统 制冷量未随负载变化及时调控,导致节能收益不明显;现阶段液冷数据中心的建设成本高 等。
驱动因素一:芯片功率快速提升,风冷策略面对挑战。 英伟达新一代芯片功率密度较高,对散热基础设施提出颠覆式挑战。随着芯片算力的 快速发展,芯片的 TDP(Thermal Design Power)——散热功率的快速攀升。从英伟达 V100 到 GB200 的芯片散热功率的变化值来看,芯片散热功率很快达到 1200W 以上,甚至 更高。按照英伟达最新的计划,采用最新芯片架构的 GB200 算力模组,模组的散热功率达 到 5400W(两块 GB200),如此高的芯片功率密度,给 GPU 服务器的供电和散热等基础设 施提出了颠覆式的挑战。
单机柜平均功率快速增长,30kw 以上占比显著提升。据 CDCC 数据,2020-2024 年全 球单机柜平均功率从 8.4kw 增长至 14.7kw,其中单机柜功率达 30kw 以上的占比从 5%增长 至 17%,预计至 2026 年,单机柜平均功率将达到 19.4kw,单机柜功率达 30kw 以上的占比 则达到 29%。数据中心从 GPU 芯片到机柜的各个层级的功耗都呈现出显著的增长趋势, 其产生的热量也随之增加。
机架密度提升至 20kW 以上后使用液冷更具有效性。8kW 以上单机柜功率密度成为目 前新建数据中心的主流选择。为提升市场竞争力,市场通过升级改造的方式来提高单柜功 率密度。目前,通算最大功率密度已超过 30kW/柜,智算功率上升更快,已达 100kW/柜, 以目前市场最为先进的 GB200 整机柜产品 NVL72 为例,其一架机柜的 GPU 卡数量达到 72 张,总功率达到 132kW。整机柜功率密度的提升对机房制冷技术提出了更高的要求。传 统风冷系统受数据中心建筑面积与单位运营成本等因素的影响散热上限一般为 20kW/柜, 越来越难以为继。液冷技术采用液体替代空气作为冷却介质,将液体直接或间接接触发热 器件,可使散热效率大幅提升,能够有效满足单点、整机柜、机房的高散热需求。
驱动因素二:先进封装带来复杂热路径,传统散热策略失效。 先进封装带来高算力的同时,也导致了热量分布不均匀。热复杂性是指热量的积聚和 扩散路径的复杂性。除了“摩尔定律”外,“超越摩尔定律”是集成电路发展的另一技术路 线,即以多样化的封装方式提升系统性能。2015 年以后,集成电路发展进入“后摩尔时 代”,芯片特征尺寸已接近物理尺寸极限。因此,为满足 AI 加速器等高计算需求,支持多 芯片异构集成的先进封装技术成为发展趋势,例如台积电的 CoWoS 技术、英特尔的 Foveros 技术、苹果的 UltraFusion 技术。先进封装工艺通过紧密地堆叠各种组件,实现在 相同封装尺寸内集成更多功能和特性。然而当一个封装中集成了多个异构芯片时,电源路 径的长度和宽度会发生变化、不同芯片类型的热特性也存在差异,特别是叠加动态变化的 工作负载,更易导致热量分布不均匀现象,出现局部热点,从而使传统散热策略失效。
传统风冷基于稳态热阻模型设计,液冷更适应瞬态热冲击以保持芯片稳定性。以 NVIDIA 最新的 GB200 系列为例,其 B200 芯片采用了台积电的 CoWoS 封装技术,集成了 多个 H100/B100 逻辑 Die 与 HBM 堆栈。这些先进封装的特点是:多层堆叠结构(例如 TSV + HBM 堆栈);多芯片系统级集成(如 Chiplet 架构);更小的热通道、更长的热路 径;多种材料界面组成复杂热阻网络;热在这些路径中被反复折射、阻滞,每一层的材料 变化、每一次结构过渡,都是一个潜在的“热阻塞点”。而在微观层面,“界面热阻”成为决 定热管理成败的关键因素之一。一旦 TIM 失效或材料膨胀系数失配,轻则热阻增大,重则 直接导致封装层剥离、失效。简而言之,先进封装虽然带来了更高的计算密度,但也让热 更难“走出去”。传统散热系统(风冷、冷板)设计多基于稳态热阻模型,而现实中,瞬态 热冲击才是真正能压垮芯片稳定性的根源。这也是近年来微热管、微通道冷却结构、甚至 TSV 内集成液体散热等“近芯片冷却”方案被重新审视的原因。
GB300 单机柜液冷板及 UQD 数量大幅增长,设备价值量有望不断提升。以 GB200 NVL72 机柜为例,该机柜共有 18 个计算节点,每个计算节点对应 2 个 GPU 模组,1 个 GPU 模组对应 2 个 GPU 和 1 个 Grace CPU,而 1 个模组使用 1 个液冷板,假设液冷板单价为 500 美元,芯片用液冷板价值量为 1.8 万美元,加上 switch 使用的 9 个液冷板,机架 层面液冷板价值量为 2.43 万美元;另外 CDU、Manifold、UQD 价值量各为 3 万、1.2 万、 1.2 万美元,加上其他部分液冷总成本约为 7.91 万美元。而下一代 GB300 芯片由于采用了 独立液冷板设计,每个芯片配备单独的液冷板,因此液冷板和 UQD 数量大幅提升,计算 下来液冷总成本约为 9.5 万美元。而 2027 年推出的 Rubin Ultra NVL576 机架功率将达到 600KW,实现 100%液冷,甚至有望引入两相液冷技术,对液冷设备将提出更高要求。
3.1 算力需求高速增长,液冷温控加速渗透
中国传统 IDC 业务将逐步回暖,市场有望迎来新一轮快速增长。2024 年中国传统 IDC 市场规模约为 1570 亿元,CIDC 预计 2025-2028 年市场规模从 1730 亿元增长至 2525 亿元,CAGR 达到 13%,近年来中国传统 IDC 业务规模增速有所放缓,但在政策及长期需 求的驱动下,市场仍具有巨大潜力。未来随着宏观经济的稳步复苏、数字经济的持续发 展,以及 AI 技术更新迭代并与各行业融合加速,中国传统 IDC 市场将迎来新的增长契 机。 中国智算中心市场在需求推动下投资规模高速增长。2022 年生成式人工智能大模型推 向市场,2023 年起国内头部互联网企业及科技公司加速 AIGC 布局,政府也牵头建设公共 智能算力中心,赋能社会数字化转型需求,智算中心市场规模大幅增长。2024 年中国智算 中心市场规模约为 1014 亿元,预计 2025-2028 年市场规模从 1356 亿元增长至 2886 亿元, CAGR 达到 29%,未来,A 工大模型应用场景不断丰富,智算中心市场增长动力逐渐由训 练切换至推理,市场进入平稳增长期。
算力需求激增与数据中心能耗问题突出,国家积极出台政策支持液冷服务器发展。如 2021 年国家发改委、工信部出台《贯彻落实碳达峰碳中和目标要求推动数据中心和 5G 等 新型基础设施绿色高质量发展实施方案》,提出到 2025 年,数据中心和 5G 基本形成绿色 集约的一体化运行格局,数据中心运行电能利用效率和可再生能源利用率明显提升,全国 新建大型、超大型数据中心平均电能利用效率降到 1.3 以下,国家枢纽节点进一步降到 1.25 以下,绿色低碳等级达到 4A 级以上。2024 年 7 月国家发展改革委等四部门发布《数 据中心绿色低碳发展专项行动计划》,其中提出因地制宜推动液冷、蒸发冷却、热管、氟泵 等高效制冷散热技术,提高自然冷源利用率。
制冷成数据中心故障主要原因之一,随着功率提升,服务器热保护关机时间显著缩 短。据权威机构 Uptime Institute 研究表明,近些年制冷系统故障率已超过 IT 系统,成为供 电、网络故障之后的最大数据中心宕机原因。一旦出现制冷故障,服务器温度会在几分钟 内飙升到无法正常运转的程度。据《数据中心在制冷系统中断期间的温升》白皮书显示, 机房制冷中断后只需要 5 分钟左右,“所有位置的温度都达到不可接受的温度范围”。随着 IT 负载的提升,高功率、高密度机柜在制冷中断情况下可稳定运行的时间也在缩减。据 IDC 圈数据,传统的 3KW 机柜在失去制冷后,服务器热保护关机时间大概有 480s,4KW 机柜则缩短到 300s。当机柜密度达到 8KW,热保护关机时间则缩减到不到 240s,只有 3KW 机柜的一半。
三大电信运营商合力发布液冷三年愿景,实现 2025 年 50%以上液冷规模应用。全力 打造高水平液冷生态链,构筑开放生态,推进液冷机柜与服务器解耦,引领形成统一标 准,降低 PUE(数据中心电能利用效率),获取最低 TCO(全生命周期成本);发挥规模优 势,大力拓展应用。冷板式液冷方面,推进形成拥有原创技术、接口标准统一、产业生态 完善、应用规模最大的发展态势;浸没式液冷方面,推进形成标准统一化、产品国产化、 实施工程化、推广规模化的发展格局。2023 年开展技术验证,充分验证液冷技术性能,降 低 PUE,储备规划、建设与维护等技术能力;2024 年开展规模测试,推进液冷机柜与服务 器解耦,促进竞争,推进产业生态成熟,降低全生命周期成本;至 2025 年,开展规模应 用,共同推进形成标准统一、生态完善、成本最优、规模应用的高质量发展格局,电信行 业力争成为液冷技术的引领者、产业链的领航者、推广应用的领先者。
多省份能效要求不断提升,液冷技术加速普及。中国通服数字基建产业研究院预计 2025 年,全国数据中心用电量达到 1200 亿度,全国数据中心的二氧化碳排放总量预计将 达到 10000 万吨,约占全国排放总量的 0.93%。节能优化和能源替换是两大减排途径,根据 CDCC 统计分析,2021 年度全国数据中心平均 PUE 为 1.49,其中华北、华东的数据中 心平均 PUE 接近 1.40,处于相对较优水平。华中、华南地区受地理位置、上架率及其他多 种因素的影响,数据中心平均 PUE 值接近 1.6,存在较大的提升空间。“东数西算”政策明 确要求到 2025 年,东部枢纽节点数据中心 PUE<1.25,西部枢纽节点数据中心 PUE< 1.2,实际上目前很多省份数据中心项目可研审批均要求在设计 PUE 在 1.2 以下,按照赛迪 顾问相关数据测算,液冷渗透率预计在 2025 年达到 20%。
存量市场节能改造需求兴起,运营商数据中心改造场景中空调改造占比达 72%。数据 中心增量需求成倍增长的同时,存量市场节能改造需求也逐渐兴起,2023-2025 年数据中 心节能改造市场空间规模超 340 亿元,主要面向华东、华北、华南、西南等区域,节能改 造市场规模分别为 99 亿元、89 亿元、82 亿元、34 亿元,市场规模占比分别为 29%、 26%、24%、10%。改造需求主要来自运营商、第三方 IDC 服务商、金融等主体,其中运 营商改造场景主要为空调、电源、机柜搬迁、机房整改等方向,其中空调改造规模占比最 大,达 72%。
AI 推动 GPU 功率提升,液冷成为制冷必然选择。据 CDCC 报道,由于新增 GPU 功 率快速提升,制冷成为严重挑战,液冷成为必然的选择,根据大厂采用 H100 或以上类型 GPU、非 H100 类型 GPU、挖矿和企业应用等场景,综合来看,2025 年和 2028 年全球范 围内采用液冷的数据中心净新增容量预计为 2.82GW 和 9.10GW,CAGR 为 47.78%,渗透 率从 2025 年的 12%快速提升至 31%。
数据中心转型液冷,预计 2025-2029 年中国液冷服务器市场 CAGR 达到 47.8%。算力 需求高速增长催化数据中心加速建设运行,在算力需求高增和数据中心承载能力有限的背 景下,单机柜功耗有持续提升趋势,单机发热量提升带来的效率降低和故障率提升,催生 出更强的温控需求,液冷技术相比风冷可有效节能且具备更高安全性,有望持续提升市占 率。根据 IDC 数据,2025 全年中国液冷服务器市场规模将达到 33.9 亿美元,与 2024 年相 比增长 42.6%。IDC 预计,2025-2029 年,中国液冷服务器市场年复合增长率将达到约 48%,2028 年市场规模将达到约 162 亿美元。
液冷市场空间广阔,25-27 年 CAGR 有望达到 52.3%。目前液冷增长驱动主要为通算 中心和智算中心的新建需求,以及存量通算中心改造需求。1)新建部分:根据中商产业研 究院数据,2023 年中国通用服务器出货量为 449 万台,智算服务器出货量则为 35.4 万台, 考虑到通算中心平均功率较低,液冷渗透率较低,智算中心功率较高,渗透率较高,我们 预测 2025-2027 年新建部分液冷市场规模从 116.9 亿元增长至 305.1 亿元,CAGR 为 61.6%。2)改造部分:根据国家数据局口径测算,2023 年中国数据中心服务器约为 2700 万台,其中绝大部分 PUE 值较高,存在改造需求,我们预测 2025-2027 年改造部分液冷市 场规模从 33.0 亿元增长至 42.3 亿元,CAGR 为 13.3%。总体来看,2025-2027 年,我们预 测中国液冷市场规模从 149.8 亿元增长至 347.4 亿元,CAGR 为 52.3%。
冷板式液冷占比较大,冷板、液冷泵价值量占比较高。进一步来看,冷板式液冷目前 占据液冷市场主流,我们预测 2025-2027 年其市场规模从 127.4 亿元增长至 277.9 亿元, CAGR 为 47.7%,其核心零部件 2027 年市场规模预测如下:冷板 97.3 亿元,液冷泵 55.6 亿元,散热器 41.7 亿元,管路系统 27.8 亿元,工质 20.8 亿元,控制单元 20.8 亿元。
3.2 液冷格局较为集中,传统厂商维持高份额
液冷数据中心产业链主要包括上游零部件、中游液冷数据中心和下游应用领域。上游 零部件主要包括:冷却液、CDU、接头、电磁阀、TANK、maniflod 等,主要公司有科华 数据、同飞股份、英维克、中科曙光、曙光数创等;中游液冷数据中心主要包括:芯片 端、液冷服务器、液冷模块机柜等基础设施及解决方案、液冷数据中心集成方等,主要公 司有英伟达、华为、英特尔、浪潮信息、施耐德、数据港等。下游应用领域主要包括:电 信运营商和互联网,主要公司有电信、移动、联通、百度、阿里巴巴、腾讯等公司。
液冷服务器市场较为集中,前三市占率超 7 成。从厂商销售额角度来看,2024 年液冷 服务器市场占比前三的厂商分别是浪潮信息、超聚变和宁畅,占据了七成左右的市场份额。传统服务器厂商在液冷领域维持较高市场份额的核心原因在于其技术积累、全栈服务 能力与产业生态协同的综合优势。依托硬件设计经验,快速适配冷板式液冷与 AI 服务器协 同优化,降低部署门槛;全链条方案(部件-机柜-数据中心)满足 PUE 严苛要求,且通过 模块化与供应链优化摊薄成本。
4.1 英维克:精密温控龙头,液冷技术领先
公司为国内精密控温龙头,AI 算力需求带动液冷放量。依靠领先技术覆盖全国及全球 重点区域市场,行业优势地位显著,随 AI 算力更高需求有望带动液冷市场放量。2020- 2024 年,公司营业收入从 17.0 亿元增长至 45.9 亿元,CAGR 达 28.1%,归母净利润从 1.8 亿元增长至 4.5 亿元,CAGR 达 25.6%。2025Q1 受会计政策变更、大宗商品价格上涨影 响,公司毛利率及净利率均有所下降。产品占比方面,数据中心温控产品占比较高,其中 机房温控节能设备占比约为 53%,户外机柜温控节能设备占比约为 37%。
英维克深耕数据中心温控领域近二十年,全链条液冷行业领先。英维克的高算力温控 方案,采用风液兼容设计,弹性适配普算和智算中心,能够适配多场景的模块化方案。即 使数据中心目前没有液冷服务器,也可以先按风冷服务器上架,后续根据自身需求再升级 液冷服务器。其在 2021 年就率先推出 Coolinside 全链条液冷解决方案。从热端的 GPU/CPU 芯片的冷板、过程中的管路、快速接头、Manifold、CDU、SoluKing 数据中心长 效液冷工质,再到一次侧的冷源等,英维克通过自主研发、自主生产、自主交付、自主服 务,真正做到从热到冷的“全链条”解决方案,让液冷系统运行更可靠,确保液冷系统“四维 一体,风险归零”。
4.2 申菱环境:空调领域领导者,液冷散热超前布局
公司为国内专业空调领域领导者,在数据中心液冷散热技术上超前布局。公司早在 2011 年就已开始研究数据中心液冷散热技术,参与了中国移动南方基地的“数据中心液/气双通道精准高效致冷系统关键技术及应用”科研项目,在南方基地的主导下,与浪潮信息、 新创意、华南理工等合作完成了定制液冷服务器及液冷散热系统的开发,搭建了国内较早 的商用液冷微模块数据中心,并实现了长期稳定运行。2020-2024 年,公司营业收入从 14.7 亿元增长至 30.2 亿元,CAGR 达 19.7%,受原材料价格及工业领域产品影响,公司归 母净利润从 1.25 亿元略降至 1.16 亿元。产品层面,数据服务行业用温控设备占比持续扩 大,至 2024 年占比已达 51.3%。
公司液冷解决方案持续突破,数据服务板块新增订单同比增长 95%。公司随着智算、 超算发展,超高热流密度散热成为核心,申菱创新提出“风液同源,风液可调”解决方案, 采用全预制化、模块化的方式,缩短建设周期,根据实际需求灵活调节,实现弹性风液 比,高质量快速交付,为数据中心的绿色、高效运行提供了强有力的支撑。2024 年公司数 据服务板块营收同比增长 75.40%。除 H 公司业务持续增长外,来自互联网头部客户字 节、腾讯、阿里等的营收规模都实现了快速增长,且公司数据服务板块新增订单同比增长 约 95%,随着订单陆续交付落地,相关业务将实现可持续的良性增长。
4.3 同飞股份:深耕工业温控领域,拓展数据中心液冷
公司深耕工业温控领域,数据中心液冷打造新增长极,多领域布局保持竞争优势。公 司 2001 年创立以来,一直深耕工业温控领域,成为国内工业温控设备龙头企业,主营业务 为液体恒温设备、电气箱恒温装置、纯水冷却单元、特种换热器四大板块。2020-2024 年,公司营业收入从 6.1 亿元增长至 21.6 亿元,CAGR 达 37.1%,公司归母净利润从 1.2 亿元增长至 1.5 亿元,2025Q1 公司业绩大幅增长,归母净利润达 0.6 亿元,同比增长 1104.9%。产品结构方面,公司液体恒温设备占比较大,占比达 67.9%。
厚积薄发,布局数据中心液冷温控产品,主要产品包括液冷 CDU、冷却水机组等。公 司通过液冷技术创新和产品研发,为中国的 IDC 产业提供高效、可靠、智能的温控解决方 案。公司数据中心液冷 CDU 产品,具有标配 RS485 接口,支持 Modbus 协议,能够实现 远程监控,适用于高功率密度数据机房或者高节能需求数据中心;冷却水机组产品主要应 用于计算机机房和数据中心,采用高效壳管式换热器,提高整体换热效率,通过自动化控 制,提供专业的保护功能和友好的人机交互,达到高节能率、高适应性、全寿命低成本的 效果。
产品创新能力强,推出板式液冷及浸没式液冷全链条解决方案。该方案通过搭配 CDU、浸没液冷 TANK、一次侧冷源、环形管路及 manifold 等模块,实现充分利用自然冷 源,系统更加安全可靠,同时,可满足高功率密度换热需求,综合 PUE 可达 1.04。
此为报告精编节选,报告原文:《信息技术-AI行业深度报告系列(一):液冷:AI算力时代,液冷需求爆发-浙商证券[童非,夏伟耀]-20250713【28页】》