
今天凌晨海外科技巨头微软和Meta披露财报,业绩均超预期,指引AI新一轮方向。
当前AI数据中心景气度明确向上,海外公司报表已有体现,如已披露二季报的CLS、Vertiv营收均大幅超此前指引,北美AIDC业务增速亮眼。
海外算力全面开花,国内算力链加速跟进,对于液冷、光模块、铜缆高速连接、PCB、AIDC等需求持续提升。
随着全球AI基础设施需求爆发,算力密度提升,数据中心机柜对散热需求大幅增长,叠加英伟达GB200、GB300进入上量期,由此带动液冷需求加速导入。
在之前的文章中我们梳理了算力核心产业链核心赛道、光模块&CPO产业链、ASIC芯片解析
本文重点解析液冷服务器产业链核心环节。
更多AI算力、人形机器人、固态电池、半导体、创新药等重点行业,最新进展和研究资料笔记,仅发布在知识星球,感兴趣欢迎扫码加入。
数据中心基础设施主要包括制冷、配电、机柜、布线、监控等系统,其中制冷是数据中心的核心环节之一。
数据中心散热技术经历了从风冷、水冷到液冷的迭代升级。
当前传统的风冷技术难以满足数据中心发展需求,液冷技术成为数据中心节能降耗的核心技术路径。从2024年起,液冷方案将在数据中心冷却方案逐渐替代风冷方案。
液冷技术通过冷却液体替代传统空气散热,液体与服务器高效热交换,提高效率,挖潜自然冷源,降低PUE,是一种新型制冷解决方案。
其核心优势在于散热效率高、能耗低、噪音小,适用于高密度计算场景。
目前两大主流液冷技术路线是冷板式液冷和浸没式液冷。
冷板式液冷:冷却液通过冷板(导热金属板)间接吸收CPU、GPU等核心部件热量,不直接接触电子元件。该路线技术路径相对清晰,具有较高的商用成熟度,尤其利于算力中心机房的改造,已成为当前绝对主导的液冷解决方案。当前已接近风冷服务器(溢价约10%-15%),规模化应用后有望进一步降低。
浸没式液冷:服务器主板完全浸没在绝缘冷却液中,通过液体循环或相变(液态→气态→液态)带走热量。应用成熟度不及冷板式,且维护成本较高;不过在节能和可靠性方面表现更优,且占用空间也更小,并且更具散热效率方面的优势,有望成为未来数据中心散热技术的重要发展方向。随着3M氟化液国产化,单相液冷成本有望下降30%。
英伟达CEO黄仁勋曾明确表示,液冷技术是未来趋势,将带动整片算力散热市场全面革新。
在英伟达GB300芯片方案中,冷板数量从GB200的45片增至108片,价值量提升超一倍。
国内政策方面,当前“东数西算”工程要求新建数据中心PUE≤1.25,强制推动液冷普及。截至2025年6月,首批8个国家算力枢纽节点已建成150个数据中心,其中液冷数据中心占比超30%。
核心环节包括服务器整机、硬件、液冷散热模块、冷却液及循环设备,以及机箱、电源、线缆等成本占比相对较小但是必要的部件。