2025年夏季,长三角地区某数据中心因传统散热系统不堪重负突发故障,导致当地人工智能服务中断7小时。事后分析报告直指问题核心:单机柜功率密度已达82kW,远超风冷散热20kW的极限阈值。1
这不是孤立事件。随着英伟达Blackwell Ultra等芯片单卡功率突破1000W,单机柜功率向100kW高歌猛进,传统风冷技术已无力应对算力爆发的散热需求。4液冷技术从边缘创新一跃成为数据中心不可或缺的核心基础设施——一场静默的散热革命正在服务器机柜深处涌动。
01 市场爆发,液冷服务器进入增长快车道
国际数据公司(IDC)的最新报告揭示了一个惊人趋势:中国液冷服务器市场在2023年达到15.5亿美元规模,同比增幅高达52.6%。更值得关注的是增长轨迹——预计到2027年,这个市场将膨胀至95亿美元(约682亿元人民币),2022-2027年间复合年增长率达54.7%。68
市场爆发的底层逻辑在于算力与散热的失衡。当英伟达H800 GPU功率密度突破700W,下一代CPU功耗逼近500W,传统风冷系统遭遇物理极限。5
“国内大厂单机柜密度已达70-100kW,传统散热模式已无法解决CPU/GPU散热问题。”科华数据数通高级副总裁邹建忠道破行业痛点。5液冷技术凭借其卓越的导热能力,成为高密度计算的唯一可行方案。
经济性考量同样助推转型。液冷数据中心PUE(电能使用效率)可降至1.1以下,而传统风冷数据中心PUE普遍在1.5以上。以中型数据中心(1000-3000机柜)为例,采用液冷技术年节电量超过8000万度,相当于减少6.4万吨二氧化碳排放。9
中国液冷服务器市场规模预测(亿美元)
年份 | 市场规模 | 同比增长 | 主要驱动因素 |
---|---|---|---|
2022 | 10.1 | 189.9% | 政策驱动、东数西算启动 |
2023 | 15.5 | 52.6% | AI算力需求爆发 |
2025(预计) | 约45 | 约65% | 运营商规模应用、智能算力占比提升 |
2027(预计) | 95 | 稳定增长 | 浸没式液冷普及、单机柜功率突破100kW |
数据来源:IDC中国半年度液冷服务器市场跟踪报告610
互联网巨头成为首批全面采用者。字节跳动2024年采购依米康液冷服务器超2万台,占其AI算力集群的60%;阿里巴巴张北数据中心采用冷板式液冷方案后,PUE降至1.12,年节省电费超1亿元。1
三大电信运营商联合发布的《电信运营商液冷技术白皮书》更是设定了明确时间表:到2025年,50%以上数据中心项目将应用液冷技术。10政策与技术需求的双重驱动,将液冷服务器推向了数据中心革命的前沿。
02 技术路线,冷板式与浸没式的战略博弈
液冷技术并非单一解决方案,而是一场多技术路线的竞赛。目前主要分为冷板式、浸没式(单相/相变)和喷淋式三种技术路线,每种都有其适用场景和商业逻辑。3
冷板式液冷作为当前市场主流,占据90%以上份额。其核心优势在于兼容性强、改造成本低——通过在CPU、GPU等高发热元件上加装液冷冷板,冷却液在密闭管道内循环导热,其他元件仍采用传统风冷散热。5
浪潮信息数据中心产品部副总经理李金波指出:“冷板式在对现有数据中心改造程度、运维便捷性、初期投资等方面均有显著优势。”5华为推出的三维立体真空腔均热板技术,更是将冷板散热效率提升20%,支持单机柜功率密度达25kW,较风冷节能70%。1
浸没式液冷则是未来的制高点。将服务器完全浸入绝缘冷却液(如氟化液)中,实现直接热交换。国家超算天津中心采用曙光数创全浸没相变液冷系统,PUE仅1.09,支持150kW以上机柜密度。1
2025年英伟达GTC大会展示的机架级液冷设计,单机架功率达120kW,实现百亿亿次计算。黄仁勋更透露,2027年推出的Vera Rubin Ultra每个机架功率将高达600kW,业内预计将全面转向浸没式液冷。4
三种液冷技术特性对比
特性 | 冷板式液冷 | 单相浸没式 | 相变浸没式 |
---|---|---|---|
散热效率 | 中等(PUE 1.2左右) | 较高(PUE 1.1左右) | 极高(PUE 1.04) |
改造成本 | 低(兼容现有设施) | 高(需专用设备) | 高(需专用设备) |
单机柜功率支持 | 20-60kW | 60-150kW | 150-500kW |
冷却液要求 | 水/乙二醇溶液 | 氟化液等绝缘液 | 氟化液等绝缘液 |
当前市场占比 | 90% | <10% | 试点阶段 |
数据来源:多个行业报告综合分析135
喷淋式液冷虽在节能效率上表现优异,但因实施复杂,目前仅中国长城、广东合一等少数厂商布局。3技术路线之争本质是成本与效率的权衡。冷板式凭借较低的门槛成为当前主流;浸没式则以更高的散热效能,成为高密度计算的终极解决方案。
宝德计算机黄文杰总结道:“冷板式更适合老机房改造,而浸没式更适合新机房建设。从投资回报看,3-5年内液冷就能平衡初期投入并产生盈利。”9
03 政策驱动,绿色计算的强制性转型
政策导向成为液冷技术推广的加速器。在“双碳”战略背景下,国家发改委明确要求:到2025年,新建大型数据中心PUE不高于1.3,国家枢纽节点进一步降至1.25以下。510
地方政府跟进制定更严格标准。《上海市“算力浦江”智算行动实施方案》要求2025年新建智算中心PUE值达到1.25以下,液冷机柜数量占比超过50%。4
政策压力下,液冷从技术选项变为合规刚需。传统风冷数据中心PUE极限为1.25,而液冷技术可轻松实现1.1以下,部分先进方案如曙光数创的全浸没相变液冷更达到1.04的超高水平。15
2023年《数据中心绿色低碳发展专项行动计划》进一步明确支持液冷技术,要求2025年新建智算中心液冷机柜占比超50%。1
运营商作为关键基础设施提供者,积极响应政策导向。中国移动长三角(苏州)云计算中心试点冷板式液冷后,单机柜功率从7kW提升至20kW,散热能耗降低50%。1
中国电信则计划在京津冀数据中心实施30个液冷服务器机柜,并在安徽建设冷板式和浸没式液冷混合集群。10政策与市场的协同效应正在形成。随着2024年《绿色数据中心政府采购需求标准》实施,液冷技术在政务、教育等公共领域渗透率将快速提升。10
04 产业生态,从零部件到数据中心的全面竞争
液冷服务器产业链正在快速成熟,形成从上游材料到下游应用的完整生态。但不同环节的竞争格局和技术壁垒差异显著。3
上游零部件领域呈现高度专业化分工:
- 冷却液:全球90%市场被3M垄断,国产替代正在加速。巨化股份、新宙邦等企业积极布局,长城超云联合北京化工大学研发的国产氟化液,成本较进口产品降低40%13
- 连接器:液冷快接头(UQD)长期被欧美厂商垄断,中航光电、工业富联实现技术突破,2024年国产UQD连接器市占率提升至30%1
- 热管理组件:CDU(冷却液分配单元)由英维克等温控厂商自主生产;电磁阀领域三花智控占据优势;TANK和Manifold则有高澜股份等供应商3
中游设备制造呈现“三足鼎立”格局。2023年上半年,浪潮信息、宁畅和超聚变三家厂商占据70%市场份额,头部效应明显。8
浪潮信息采取“All in液冷”战略,其联合英特尔研发的全液冷冷板技术方案实现100%液冷散热,PUE降至1.08;宁畅推出的B8000液冷整机柜服务器节点内液冷覆盖率超过90%,PUE低至1.09;中科曙光则在浸没式液冷领域保持领先。5
下游应用领域呈现差异化需求:
- 互联网企业:阿里巴巴、字节跳动等因AI算力需求迫切,率先大规模部署
- 电信运营商:中国移动、中国电信等按《液冷技术白皮书》规划分阶段推广
- 超算中心:国家超算天津中心等采用浸没式液冷应对极限算力需求110
2023上半年中国液冷服务器厂商市场份额
排名 | 厂商 | 市场份额 | 主要技术路线 |
---|---|---|---|
1 | 浪潮信息 | 约35% | 冷板式为主 |
2 | 宁畅 | 约20% | 冷板式+整机柜 |
3 | 超聚变 | 约15% | 冷板式 |
其他 | 中科曙光/华为等 | 约30% | 多样化布局 |
数据来源:IDC中国半年度液冷服务器市场跟踪报告8
产业链的协同创新成为突破关键。英伟达GB200 NVL72服务器的液冷散热器由冷却板、冷却液分配装置、分歧管等核心部件精巧构成,其进水温度25℃、出水温度45℃ 的设计展现了系统级优化能力。3
国内厂商如绿色云图也积极与芯片、服务器、冷却液厂商及科研院所合作,构建产业生态。其运营总监徐明微强调:“液冷产业的爆发并非一蹴而就,也绝非一己之力。产业需要共同迈向安全、高效、标准化。”4
05 挑战与未来,生态协同与技术突破的必经之路
尽管前景光明,液冷产业仍面临三重挑战:
产业生态尚未成熟。《电信运营商液冷技术白皮书》指出:“目前业内尚无服务器与机柜统一接口规范标准,机柜与服务器深度耦合,不同厂家产品接口不同、不能互相兼容。”10这种碎片化状态阻碍了规模化应用。
初期投资成本高企。液冷数据中心建设成本较传统风冷高约5%,主要来自专用设备和不锈钢管路等投入。9金融行业技术负责人坦言:“预算审批时,液冷方案的溢价常引发质疑,需要全生命周期成本分析才能通过。”
技术路线尚未收敛。互联网巨头中,阿里巴巴押注单相浸没式液冷,而多数企业以冷板式为主。《白皮书》认为“冷板式与浸没式将并存发展”,导致产业链资源分散。10
未来突破点明确指向三个方向:
余热回收创造新价值。西部(重庆)科学城数据中心将液冷余热用于周边居民供暖,覆盖13万平方米,开辟“能源循环利用”新模式。1当数据中心变身“城市热力站”,其经济模型将彻底重构。
AI赋能智能运维。英维克的液冷CDU集成AI算法,可预测设备故障并自动调整冷却策略。1算法优化使系统能效比人工管理提升8-12%,运维成本降低30%。
国产替代加速成本下探。在冷却液、UQD连接器等关键材料部件领域,国产化进程直接决定产业自主权。中航光电的液冷快接头已用于多型服务器,巨化股份的氟化液通过阿里云验证,成本降幅达40%。13
浸没式液冷的拐点已经显现。当单机柜功率突破80kW,浸没式液冷的优势将压倒冷板式。IDC预测:“单机柜突破100KW已经‘近在眼前’,当单机柜超过80KW达到100KW甚至更大时,浸没式液冷的优势就显现出来了。”5
这一拐点被技术界称为“液冷奇点”——超过此阈值,浸没式将成为唯一可行方案。随着英伟达Vera Rubin架构将单机架功率推至600kW,浸没式液冷将从选项变为必然。4
2025年初春,苏州移动智算中心完成了最后一批浸没式液冷机柜的部署。冷却液在密封舱内无声流动,带走海量AI训练产生的热能,PUE值稳定在1.08。余热回收系统将45℃出水输往附近产业园,冬季供暖覆盖15万平方米厂区。14
而在三千公里外的宁夏中卫,采用冷板式液冷的“东数西算”枢纽节点刚刚上线。工程师轻旋快插接头更换故障泵体,系统自动恢复平衡——标准接口设计使维护时间缩短70%。310
技术路线虽有差异,但指向同一个未来:当算力需求每三个月翻一番,唯有液冷的流动能浇熄芯片的焦渴。