2025年智算中心冷板式液冷云舱技术白皮书-中讯邮电智算中心冷板式液冷云舱技术白皮书 1 智算中心冷板式液冷云舱 技术白皮书 中讯邮电咨询设计院有限公司 2025 年 7 月 智算中心冷板式液冷云舱技术白皮书 2 智算中心冷板式液冷云舱技术白皮书 3 前 言 随着全球算力需求激增, 随着全球算力需求激增,传统风冷散热已逼近物理极限,液冷技术在数据中心领 域近年来保持高速增长。市场分析显示,2025 至 2030 年间,全球液冷数据中心市场 的年复合增长率(CAGR)预计为 19.8%,到 2030 年市场规模将达 240 亿美元,反映 出液冷在提升能效、降低能耗方面的显著优势及其渗透率的加速提升。 这一增长主要由数据中心对高效散热解决方案的需求驱动:一方面,人工智能服 务器和高密度计算部署(如 大模型应用)导致功率密度骤增,形成液冷的刚性需 求;另一方面,绿色节能政策成为关键推动力。从行业应用来看,电信运营商和互联 网厂商是推动液冷技术应用的重要力量:互联网领域因 AI 部署推动液冷需求,电信 运营商则基于《电信运营商液冷技术白皮书》的要求积极推广。同时,国家“碳达峰·碳 中和”战略下,PUE 标准趋严(如“东数西算”工程强制要求新建数据中心 PUE<1.25), 液冷技术能将 PUE 降至10 积分 | 25 页 | 1.11 MB | 4 月前3
AI赋能化工之一-AI带动材料新需求算力大幅提升,液冷技术成为大势所趋,氟化液大有可为 AI 技术迅猛发展,极大增加了相关产业对高性能算力的需求,进而对设备散热冷却提出了更高要求。目前来看,液冷更适用于高密度功率的数据中 心,其中浸没式液冷具有明显优势。根据《中国液冷数据中心发展白皮书》,保守估计 2025 年中国液冷数据中心市场规模将达 1283.2 亿元,其 中浸 没式液冷占 526.1 亿元。氟化液是浸没式液冷的理想冷却液 设备运行将会持续发热, 因此需要制冷系统进行散热制冷以保 证数 据中心内部环境的稳定,实现数 据中心正常运行 资料来源:曙光数创招股书,国海证券研究所 数据中心 AI 大发展对冷却技术提出更高需求,浸没式液冷前景广阔 u 人工智能技术的迅猛发展,极大增加了相关产业对高性能算力的需求,而在高性能算力的背后,对设备散热冷却提出了更高的要求。 PUE 即电 能利用效率,是数据中心消耗的所有能源与 IT 数据中心冷却技术包含风冷冷却、水冷冷却、自然冷却及液冷冷却等技术。其中液冷分为间接冷却和直接冷却,典型方式有冷板式、浸没式。 液冷是以液体作为热量传导媒介,通过冷却液与服务器发热部件直接或间接接触的方式换热,将发热部件产生的热量带走的一种服务器散热技 术。根据 CDCC ,由于液体的比热容高,所以液体的热传导效果大大高于空气的效果,是空气的 25 到 1000 倍,热传导效果更快、更优。相 比而 言,液冷更适用于高密度10 积分 | 71 页 | 2.74 MB | 10 月前3
运营商智算中心建设思路及方案署 方面还应充分考虑低碳绿色、集群组网,具体策略和 方案建议如下。 a)优选液冷散热模式。液冷技术可有效降低 PUE,提升装机密度,且液冷节点及相关器件(例如光模 块)的温度比风冷节点更低,可有效提升可靠性,降低 数据中心的运维成本,提高整体经济效益。在智算资 源池的建设中,智算训练服务器应优先采用液冷技术。 b)慎用风液混合模式。GPU 集群长时间运行时, GPU 卡在风冷集群的温度可能达到 卡在风冷集群的温度可能达到 100 ℃以上,为避 免过热带来的故障和风险,GPU 卡会进行降频处理, 如果风、液冷共集群,液冷设备的 GPU 卡的高性能就 无法发挥最大价值。因此,在智算中心建设前要做好 提前规划,避免不必要的损失。 c)单一智算集群的机房不宜过度分散。为便于 无损网络组网部署和后续故障定位,建议 Leaf 与 GPU 服务器之间的距离不超过 100 m,即两者最好同机房 部署;建议10 积分 | 6 页 | 3.64 MB | 4 月前3
2025年智算服务案例集-全球计算联盟....... 7 3.1.2 联通河北政务云智算中心利用数字化平台实现智能建造技术实践 ....................... 8 3.1.3 L1&L2 联动节能在广东移动深圳宝观液冷数据中心的创新实践 .......................... 9 3.1.4 广东电信韶关数据中心间接蒸发冷却技术应用 ................................ 端和手机端网络远程访问,提高了管理人员对现场的管控能力,实现设备感知、 设计协同、远程监控等效果,如图 3 所示。 图 3 智能建造数字化平台 3.1.3 L1&L2 联动节能在广东移动深圳宝观液冷数据中心的创新实践 面对机楼改造难度大、复杂性高、工期紧、勘测周期长、现网割接风险高、PUE 压降难 度大等难题,广东移动紧扣绿色双碳和算力发展战略,聚焦“节能改造,国 A 改造,智算改 造”三大场景,探索老旧机楼复杂改造升级转型之路。其中较为典型的是深圳宝观智算中心 改造项目(PUE 1.69、中国移动唯一的“一省双池”千卡训推一体智算中心,要求 4 个月智 算业务投产)。 当前的液冷智算机房存在全生命周期能耗高、能耗利用不均衡的痛点。华为通过深入剖 析影响 PUE(智算中心总能耗与 IT 能耗比值)的因素,得出低 PUE 不等于低总能耗、IT 能耗 占总能耗约 85%、XPU10 积分 | 28 页 | 2.59 MB | 2 月前3
2025年超节点发展报告-华为&中国信通院处理器泛指用于人工智能计算的加速器,如 神经网络处理器(NPU)和图形处理器(GPU)等)编织为一个逻辑统一的高密度计算体;通过软 硬件协同和智能编排,把训练与推理的双重诉求在同一平台上高效切换;通过液冷、供电与可观测 性 /RAS 体系,把能效与可用度拉回可持续区间。相较“服务器集群”,超节点代表的是弹性、池化、 开放的系统能力:既能以极致吞吐支撑万亿参数训练,也能以低时延满足企业级大规模推理的刚性 正是这种瓶颈的演变,最终凸显了传统服务器集群架构面临的三重系统性挑战。首先是通信墙, 千亿级模型一次梯度同步即 TB 级数据,传统以太网难以承受。其次是功耗与散热墙,为破通信墙 而提升密度,促使液冷、48V 供电成为标配。第三是复杂度墙:万级处理器带来故障常态化,从业 界模型 GPT-3 (175B) 到 GPT-4 (1.9T) 的演进为例,随参数增至 10.8 倍,总集合通信达 34.1 为应对这一挑战,超节点系统需要深度考虑硬件可靠性,覆盖器件的全生命周期(如图 4.3 所示): 生产阶段通过高低温、震动、冲击等极限压测方法筛选合格产品;选型阶段选用超宽温度、稳定性能、 低失效的电信级器件;使用阶段部署液冷散热技术,精确控制核心器件工作温度,降低因热应力导 致的故障风险。这些措施可使超节点系统在满负载运行时的器件级故障率大大降低,为千亿参数模 型连续训练提供硬件级可靠性保障。 4.2.2 超高可靠20 积分 | 31 页 | 4.79 MB | 4 月前3
智算中心成为新基建的基本条件与智慧时代动力源_王恩东计算、存储、网络功能,性能损失从传统软件模拟方式的 50%降低到1%左右,性价比提升25%~50%,相同条件下可 以百倍加速AI作业效率。 绿色节能则是一个永恒的话题,从传统的节点内风冷 到机柜级冷板式液冷,再到数据中心的浸没式液冷整体设 计,配合余热回收、相变储能等循环节能技术,可以实现 PUE接近于1的目标,打造高效清洁的绿色智算中心。 三是普适普惠。智算中心作为基础设施,要服务大 众,要提供算力服务,数据服务和各种智能服务,在支撑 浪潮将引领开放计算体系,打造智算中心基石,构 建从模式开放到技术开放、从产品开放到服务开放的计 算体系。模式开放就是以客户场景为核心,与合作伙伴 一起联合规划、协同设计、敏捷研发、快速交付;技术 开放,无论是以液冷、循环利用为代表的冷却技术,还 是以RISC-V、FPGA、CXL、智能网卡等为代表的基础技 术,浪潮将一直坚持技术领先;产品开放以开放架构和开 源为指导,基于先进的开放硬件架构,模块化、标准化构10 积分 | 7 页 | 1.48 MB | 4 月前3
未来网络发展大会:2025算电协同技术白皮书础设施建设的战略抓手,通过源网荷储一体化项目推动“大”“小” 电网与算力节点的双向赋能。产业实践中,青海柴达木 100%绿电算 第九届未来网络发展大会白皮书 算电协同技术白皮书 3 力中心、阿里云张北液冷数据中心等标杆项目已验证“算力随能源跑” 的可行性,但跨行业标准缺失、区域资源错配等问题仍制约协同深度, 亟需通过电力市场与算力价格联动机制、虚拟电厂等技术突破构建系 统性解决方案。这一变革不仅关乎单一产业,更是重塑全球竞争格局 可提供最大 20%的瞬时调节能力。南方电网研发的“驭电”智能仿真 大模型,通过融合气象、负荷、设备等多维数据,将新能源预测准确 率提升至 95%以上。华为在贵安建设的绿色数据中心采用“分布式光 伏+液冷”技术,年均 PUE 低至 1.12;中国电信青海数据中心实现 100%绿电供应,年减排二氧化碳 50 万吨;万国数据在上海临港试点 "算力银行"模式,通过电力现货市场套利降低用能成本 8%。这些探 分布和绿色高效运行。超算中心与智算中心需实现由东向西梯度转移, 优化网络传输路径,提升算力资源全国平衡与调度效率。数据中心建 设标准应强化绿色低碳指标,推动 PUE、WUE 等达到国际先进水平, 积极推广液冷等节能技术 [10]。边缘计算节点需结合分布式电源、储能 和微电网建设,提升能源供给的灵活性和系统的鲁棒性。异构计算架 构融合与资源池化平台建设,满足多样化业务对算力的动态分配需求。 构建“10 积分 | 66 页 | 1.70 MB | 4 月前3
智算中心机房气流组织设计及CFD模拟研究文章编号:1007-3043(2025)03-0088-05 中图分类号:TU83 文献标识码:A 开放科学(资源服务)标识码(OSID): 摘 要: 在将传统数据中心改造为智算中心机房时,面临高功率机柜散热的挑战。由于 液冷方式对基础设施要求高、实施难度大,难以满足快速交付需求,因此采用增 加列间空调、扩大冷热通道间距等方法改造存量机房成为必要选择。通过气流 组织分析及 CFD 模拟研究,提出了将存量机房改造为智算中心机房的有效措 c)对于有改造条件的存量机房,建议采用热通道 封闭方式。相较于冷通道封闭,热通道封闭在提升维 护人员舒适度和节能效果方面表现更佳。 d)对于单机柜功耗>20 kW 的机柜,传统风冷技 术已难以满足高功率机柜的部署需求,液冷散热已成 为制冷技术升级的选择。 参考文献: [1] 陶文铨,靳姝琦,李楠,等 . 数据中心机房气流组织仿真技术探讨 [J]. 邮电设计技术,2022(12):1-8. [2] 中华人民共和国住房和城乡建设部10 积分 | 6 页 | 4.77 MB | 4 月前3
A级数据中心建设运营汇报方案(29页 PPT)技术 机房高压直流将高电压直流 电能传输到机房内,然后通 过转换器将其转换为适合机 房内设备使用的低压直流电 能。这样可以避免交流输电 过程中的转换损耗,提高配 电效率 服务器液冷技术 液冷模式通过液体直接导向 服务器热源带走热量,不需 要像风冷一样间接通过空气 循环降温,散热效率更高、 更节能、运行噪音更小 EC 风扇技术 通风散热设备采用电子换向 风扇。 可以根据机房的热10 积分 | 29 页 | 11.70 MB | 4 月前3
DeepSeek冲击下,AI产业对国内电力行业的变与不变中具备超额效率优势。 2)冷却系统:根据 NTT DATA,当采用 HVDC 时电源系统和机组产生热量相应减少,进而 降低数据中心的 PUE 值;此外,在数据中心功率提升趋势下液冷渗透率走高,直流电相比 交流电更适配液冷方案。 3)服务器机组:传统服务器电源受电端通过 UPS 交流侧整流,再通过 DC/DC 变换供电; HVDC 输入端变为直流,服务器内部电源可省去整流器环节,直接将输出直流电通过 巴 于 2016 年起启动巴拿马电源研发,是最资深的巴拿马电源厂商;Vertiv 是国内微模块市场 龙头,在数据中心系统集成和预制交付方面实力强劲,同时在国际 HVDC 市场领先,具备 提供从供电到液冷等数据中心配套综合解决方案的能力,考虑到海外 HVDC 渗透率低于国 内,叠加 Meta、微软等海外科技巨头主推新一代 HVDC 方案,有望获得全球市场的先发优 势。 移相变压器方面(巴拿马电10 积分 | 25 页 | 2.88 MB | 10 月前3
共 27 条
- 1
- 2
- 3
