积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部人工智能(10)行业赋能(10)

语言

全部中文(简体)(10)

格式

全部PDF文档 PDF(7)DOC文档 DOC(2)PPT文档 PPT(1)
 
本次搜索耗时 0.025 秒,为您找到相关结果约 10 个.
  • 全部
  • 人工智能
  • 行业赋能
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • DOC文档 DOC
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 2025年智算中心冷板式液冷云舱技术白皮书-中讯邮电

    智算中心冷板式液冷云舱技术白皮书 1 智算中心冷板式液冷云舱 技术白皮书 中讯邮电咨询设计院有限公司 2025 年 7 月 智算中心冷板式液冷云舱技术白皮书 2 智算中心冷板式液冷云舱技术白皮书 3 前 言 随着全球算力需求激增, 随着全球算力需求激增,传统风冷散热已逼近物理极限,液冷技术在数据中心领 域近年来保持高速增长。市场分析显示,2025 至 2030 年间,全球液冷数据中心市场 的年复合增长率(CAGR)预计为 19.8%,到 2030 年市场规模将达 240 亿美元,反映 出液冷在提升能效、降低能耗方面的显著优势及其渗透率的加速提升。 这一增长主要由数据中心对高效散热解决方案的需求驱动:一方面,人工智能服 务器和高密度计算部署(如 大模型应用)导致功率密度骤增,形成液冷的刚性需 求;另一方面,绿色节能政策成为关键推动力。从行业应用来看,电信运营商和互联 网厂商是推动液冷技术应用的重要力量:互联网领域因 AI 部署推动液冷需求,电信 运营商则基于《电信运营商液冷技术白皮书》的要求积极推广。同时,国家“碳达峰·碳 中和”战略下,PUE 标准趋严(如“东数西算”工程强制要求新建数据中心 PUE<1.25), 液冷技术能将 PUE 降至
    10 积分 | 25 页 | 1.11 MB | 4 月前
    3
  • ppt文档 AI赋能化工之一-AI带动材料新需求

    算力大幅提升,液冷技术成为大势所趋,氟化液大有可为 AI 技术迅猛发展,极大增加了相关产业对高性能算力的需求,进而对设备散热冷却提出了更高要求。目前来看,液冷更适用于高密度功率的数据中 心,其中浸没式液冷具有明显优势。根据《中国液冷数据中心发展白皮书》,保守估计 2025 年中国液冷数据中心市场规模将达 1283.2 亿元,其 中浸 没式液冷占 526.1 亿元。氟化液是浸没式液冷的理想冷却液 设备运行将会持续发热, 因此需要制冷系统进行散热制冷以保 证数 据中心内部环境的稳定,实现数 据中心正常运行 资料来源:曙光数创招股书,国海证券研究所 数据中心 AI 大发展对冷却技术提出更高需求,浸没式液冷前景广阔 u 人工智能技术的迅猛发展,极大增加了相关产业对高性能算力的需求,而在高性能算力的背后,对设备散热冷却提出了更高的要求。 PUE 即电 能利用效率,是数据中心消耗的所有能源与 IT 数据中心冷却技术包含风冷冷却、水冷冷却、自然冷却及液冷冷却等技术。其中液冷分为间接冷却和直接冷却,典型方式有冷板式、浸没式。 液冷是以液体作为热量传导媒介,通过冷却液与服务器发热部件直接或间接接触的方式换热,将发热部件产生的热量带走的一种服务器散热技 术。根据 CDCC ,由于液体的比热容高,所以液体的热传导效果大大高于空气的效果,是空气的 25 到 1000 倍,热传导效果更快、更优。相 比而 言,液冷更适用于高密度
    10 积分 | 71 页 | 2.74 MB | 10 月前
    3
  • pdf文档 运营商智算中心建设思路及方案

    署 方面还应充分考虑低碳绿色、集群组网,具体策略和 方案建议如下。 a)优选液冷散热模式。液冷技术可有效降低 PUE,提升装机密度,且液冷节点及相关器件(例如光模 块)的温度比风冷节点更低,可有效提升可靠性,降低 数据中心的运维成本,提高整体经济效益。在智算资 源池的建设中,智算训练服务器应优先采用液冷技术。 b)慎用风液混合模式。GPU 集群长时间运行时, GPU 卡在风冷集群的温度可能达到 卡在风冷集群的温度可能达到 100 ℃以上,为避 免过热带来的故障和风险,GPU 卡会进行降频处理, 如果风、液冷共集群,液冷设备的 GPU 卡的高性能就 无法发挥最大价值。因此,在智算中心建设前要做好 提前规划,避免不必要的损失。 c)单一智算集群的机房不宜过度分散。为便于 无损网络组网部署和后续故障定位,建议 Leaf 与 GPU 服务器之间的距离不超过 100 m,即两者最好同机房 部署;建议
    10 积分 | 6 页 | 3.64 MB | 4 月前
    3
  • pdf文档 DeepSeek冲击下,AI产业对国内电力行业的变与不变

    中具备超额效率优势。 2)冷却系统:根据 NTT DATA,当采用 HVDC 时电源系统和机组产生热量相应减少,进而 降低数据中心的 PUE 值;此外,在数据中心功率提升趋势下液冷渗透率走高,直流电相比 交流电更适配液冷方案。 3)服务器机组:传统服务器电源受电端通过 UPS 交流侧整流,再通过 DC/DC 变换供电; HVDC 输入端变为直流,服务器内部电源可省去整流器环节,直接将输出直流电通过 巴 于 2016 年起启动巴拿马电源研发,是最资深的巴拿马电源厂商;Vertiv 是国内微模块市场 龙头,在数据中心系统集成和预制交付方面实力强劲,同时在国际 HVDC 市场领先,具备 提供从供电到液冷等数据中心配套综合解决方案的能力,考虑到海外 HVDC 渗透率低于国 内,叠加 Meta、微软等海外科技巨头主推新一代 HVDC 方案,有望获得全球市场的先发优 势。 移相变压器方面(巴拿马电
    10 积分 | 25 页 | 2.88 MB | 10 月前
    3
  • pdf文档 智算无界:AIDC的超越和重构-上海贝尔

    显著降低功耗和时延。同时, 进一步突破LPO传输距离限制,业界推出LRO/TRO方案,在发射端保留DSP预处理,在接收端采用无DSP的 线性输出,平衡性能与功耗。针对高热场景,液冷光模块封装工艺支持智算中心浸没式液冷散热要求。 面向交换机互联和芯片级互联,光电合封(CPO)和光输入输出(OIO)通过先进封装实现光电深度融合, 在速率和能耗等关键指标上具有显著优势。CPO技术通过将光引擎直接与交换芯片的共封装,几乎完全消除 2T的CPO版本Tomahawk5交换芯片,新近发布的102.4T交换芯片Toma- hawk 6,支持CPO;Mavell和英特尔等推出CPO芯片; • 英伟达计划于2025Q3发布CPO 144*800G全液冷IB交换机。 • 目前,CPO交换机处于产业化和市场初期,少数友商发布商用或试验CPO交换机; 分布式解耦架构DDC交换机 • 新一代智算网络架构,“InfiniBand Alternative”;
    10 积分 | 38 页 | 9.31 MB | 3 月前
    3
  • pdf文档 智能算网_AI Fabric2_0_研究报告-中国信通院&华为

    设备功耗从2KW~3KW上升到5KW~6KW,框式设备功耗增加到40~50KW,已经逐渐 逼近风冷散热的极限,客户机房部署也需要更多的空调来解决散热问题,机架利用率下降, 同时担心出现局部热点。因此,液冷设备逐步进入到行业视野范围,部分客户已经开始计 划部署液冷交换机,降低PUE,提升机架利用率,解决高功耗设备部署问题。 图3 国家多PUE指标要求 4.1.2 高速光互联 随着AI网元朝着高速、高密、大集群的方向演进,传统电互连受限于高频损耗成倍提
    10 积分 | 50 页 | 2.72 MB | 2 月前
    3
  • pdf文档 2025年基于预制模块化数据中心场景的冷却系统智能调优技术报告

    冷却水泵作为冷却水循环系统的动力设备,负责将冷却水从冷水 机组输送至冷却塔,通过水循环带走热量,降低机组运行温度。 三、预制模块化数据中心冷却系统智能调优技术 预制模块化数据中心涵盖了 IT 方舱、电力方舱、液冷冷源方舱、 水力方舱以及多种辅助类和动力类方舱,如下图 1 所示。这一系列方 舱不仅能够独立运作,还支持灵活配置,满足不同应用场景的需求。 图 1 水力方舱 预制模块化数据中心的特点是在工厂内完成预组装和测试,采用
    20 积分 | 33 页 | 3.74 MB | 4 月前
    3
  • pdf文档 2025年数据中心末端配电母线联合解决方案白皮书-西门子

    快速部署和调整,为AI集群等高密度、高 功率环境提供可靠、可持续的电力保障, 从而帮助客户降低运营风险、提升机房利 用率并支持业务持续增长。 典型部署方式 04 高功率密度(单柜功率可达100kW以 上),多GPU密集部署,液冷普及。一般 采用干线800A-1250A,插接箱3相63A 至125A输出配置,配备智能监测,母线 测温。 列间空调 AI 机柜 11 机房配电母线安装于模块化数据中心上方,沿通道上方布置,为每列机柜提供独立的AB双路母线供电,实
    30 积分 | 26 页 | 20.11 MB | 4 月前
    3
  • word文档 智慧医疗数字化场景DeepSeek AI大模型智算一体机设计方案(140页 WORD)

    RDMA(远程直接内存访问)技术,减少数据传输中 的 CPU 开销,提升整体系统效率。 电源与散热系统采用冗余设计和智能调控技术,确保系统的稳 定运行。电源模块支持双路供电,避免单一电源故障导致的系统停 机。散热系统结合液冷和风冷技术,根据负载动态调整散热策略, 确保硬件在高负载下的温度控制。 安全模块是医疗场景中的核心组件,包含硬件级加密芯片、安 全启动机制和物理防护设计。加密芯片用于保护敏感医疗数据的存 储 计算单元:多核 CPU、GPU 加速卡、FPGA 协处理器  存储单元:NVMe SSD、HDD、RAID 技术  网络单元:10GbE/40GbE 以太网、RDMA 技术  电源与散热:双路供电、液冷与风冷结合  安全模块:加密芯片、安全启动、物理防护 整体硬件架构设计充分考虑医疗场景的特性,如数据隐私性、 计算实时性和系统稳定性,确保 DeepSeek 智算一体机能够高效、 可靠地服务于医疗领域的各类应用需求。
    40 积分 | 149 页 | 475.88 KB | 8 月前
    3
  • word文档 金融银行业务接入DeepSeek AI大模型智能体建设方案(304页 WORD)

    推理阶段启用 Continuous Batching 技术,将吞吐量提升 3- 5 倍,同时通过以下措施降低功耗: 实际部署中需预留 20%的冗余资源以应对突发流量,同时建 议 采用液冷服务器机柜将 PUE 控制在 1.2 以下。对于日均千万 级 请求的省级分行,初期投入建议配置 16 台 A100 服务器(每 台 8 卡) ,通过 NVLink 实现跨节点互联。
    10 积分 | 313 页 | 3.03 MB | 4 月前
    3
共 10 条
  • 1
前往
页
相关搜索词
2025年智算中心板式液冷云舱技术白皮皮书白皮书邮电AI赋能化工之一带动材料需求运营营商运营商智算建设思路方案DeepSeek冲击产业国内电力力行行业电力行业不变无界AIDC超越重构上海海贝贝尔上海贝尔智能算网Fabric2研究报告中国信通华为基于预制模块模块化数据数据中心场景冷却系统冷却系统调优末端配电母线联合解决解决方案西门门子西门子智慧医疗数字数字化模型一体一体机设计设计方案140WORD金融银行业务银行业银行业务接入304
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 - 2026 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩