利多星智投:液冷服务器部署的商业化进程与未来趋势

2026年01月19日/ 浏览 8

当我们在手机上刷视频、用云端办公时,背后的数据中心正承受着巨大的算力压力。随着 AI 大模型训练、超算中心等场景爆发,CPU/GPU 芯片的功耗早已突破千瓦大关,英伟达 H100 GPU 功耗达 700W,单机柜功率密度突破 50kW 已成常态。​今天利多星智投就和大家介绍下液冷服务器的相关知识吧。

传统风冷服务器面临着难以逾越的物理天花板:空气的导热系数仅 0.024 W/mK,远低于水的 0.6 W/mK,散热效率低下;为了降温,风扇和空调需消耗数据中心 30%-50% 的电能,导致 PUE(电能使用效率)难低于 1.3;更关键的是,当单机柜功率密度超过 20kW 后,风冷的成本和难度会呈指数级增长。

液冷服务器的出现正是为了破解这一困局。它以液体为冷却介质,导热效率是空气的 25 倍以上,能轻松应对 100kW / 机柜的高密度计算需求,同时将 PUE 降至 1.05-1.1,节省 30% 以上总能耗,成为解锁更高算力密度的关键钥匙。

一、液冷服务器部署核心:原理与三大主流方案

液冷服务器的核心逻辑很简单 —— 用液体替代空气作为散热载体,通过冷热交换高效带走芯片热量。根据部署方式的不同,主流方案分为三类,适配不同场景需求:

1. 冷板式液冷:兼容性之王(市场占比 70%+)

这是目前最成熟的部署方案,核心是 “精准降温”。工程师会在 CPU、GPU 等高功耗芯片表面安装金属冷板(通常为铜或铝材质),冷板内部设计微流道,冷却液通过管路循环流经冷板,直接吸收芯片热量,再通过机房级的冷却液分配单元(CDU)散热后回流。

这种部署方式无需大幅改造服务器架构,中低功耗部件可保留风冷,支持 “风液混用”,兼容性极强。比如英伟达 HGX 液冷机柜就采用该方案,结合 45-50℃高温水自然冷却,能实现 PUE

2. 浸没式液冷:极致散热之选

如果说冷板式是 “局部降温”,浸没式就是 “全身冷却”。部署时,整台服务器会被完全浸泡在不导电、无毒无味的绝缘冷却液(如氟化液)中,芯片产生的热量直接被液体吸收,部分方案中冷却液会吸热沸腾,利用汽化潜热快速散热,蒸汽冷凝后循环使用。

这种方案的散热效率堪称极致,单机柜功率可达 100kW+,设备全域温度波动

3. 喷淋式液冷:精准靶向探索

这是一种更具创新性的部署方式,通过服务器机箱顶部的喷头,将冷却液精准喷洒至芯片表面,吸热后回流收集。其优势是用液量少、散热精准,但面临喷嘴防堵塞、液体控制难度大等工程挑战,目前商业化案例较少,微软等企业正在 Azure 服务器中开展试验。

二、液冷服务器部署的核心优势与应用场景

四大核心优势,重塑数据中心生态

超高散热效率:导热效率是空气的 25 倍以上,轻松应对千瓦级芯片和百千瓦级机柜的散热需求;极致能源节约:PUE 可低至 1.05-1.1,较风冷服务器节能 30% 以上,阿里云杭州数据中心年均 PUE 仅 1.09;静音空间优化:无需高速风扇,噪音降低 20dB 以上,同时提升单机柜算力密度,节省机房空间;余热回收潜力:高温冷却液可用于城市供暖或生活热水,微软北欧数据中心余热回收效率超 90%。

典型应用场景:哪里需要 “冷静” 算力?

AI 大模型训练:千卡级 GPU 集群产生兆瓦级散热需求,液冷是唯一可行方案,浪潮信息 M7 平台实现 “ALL IN 液冷”,适配 1024 颗 H100 的集群需求;超算中心与高密度数据中心:中科曙光液冷服务器支撑 “地球数值模拟装置”,腾讯长三角 AI 超算中心采用液冷支持高密度 GPU 部署;边缘计算:5G MEC、车载算力平台等空间有限场景,微型化冷板 / CDU 一体机可适配狭小环境;绿色数据中心:响应 “东数西算” 工程 PUE

三、行业趋势:液冷部署将成高密度计算标配

随着 AI 芯片功率持续提升,2025 年全球 AI 芯片单机柜功率将突破 100kW,液冷技术的渗透率正快速攀升。IDC 预测,2025 年中国液冷服务器市场规模将达 33.9 亿美元,2025-2029 年年复合增长率约 48%,2028 年将增至 162 亿美元;集邦咨询更预测,2025 年液冷在 AI 数据中心的渗透率将从 14% 跃升至 33%。

从产业链来看,浪潮信息、中科曙光、工业富联等企业已形成成熟的部署方案,浪潮信息 2025 年 Q1 液冷服务器产能达 3.6 万台 / 月,订单排至 2026 年。未来,“液冷原生” 服务器设计将成为主流,芯片、主板与液冷系统的协同优化,将进一步释放算力潜力。

液冷服务器的部署,不仅是散热技术的革新,更是数字经济发展的必然选择。当我们享受着 AI、5G 带来的便捷时,这些 “冷静” 运行的服务器,正成为支撑技术进步的核心基石。

picture loss