中国信通院:央国企智算创新实践报告(2025年)央国企智算创新实践报告 (2025 年) 中国信息通信研究院云计算与大数据研究所 中石油(北京)数智研究院有限公司 中国移动云能力中心 2025年9月 版权声明 本报告版权属于中国信息通信研究院、中石油(北京) 数智研究院有限公司和中国移动云能力中心,并受法律保护。 转载、摘编或利用其它方式使用本报告文字或者观点的,应 注明“来源:中国信息通信研究院、中石油(北京)数智研究 数智研究 院有限公司和中国移动云能力中心”。违反上述声明者,编者 将追究其相关法律责任。 前 言 数字经济时代,算力已成为关键生产力,重塑着经济社会发展格 局。伴随人工智能技术迭代加速,尤其是生成式人工智能的突破性发 展,智能算力需求呈现爆发式增长态势。作为智能算力的关键载体, 算力中心对推动科技创新、产业升级以及提升国家核心竞争力具有战 略性、基础性作用。 我 我国政府持续强化算力基础设施顶层设计,出台了系列政策措施, 积极引导和支持智算产业发展。从《新一代人工智能发展规划》到“东 数西算”工程,再到《算力基础设施高质量发展行动计划》,从战略布 局、资源整合、技术创新等多维度精准施策,为产业发展营造良好的 政策环境。在国家政策的引领下,各地方政府因地制宜出台配套措施, 形成央地协同推进智算产业发展的工作格局。 央国企积极响应国家号召,凭借自身资源、技术和市场优势,成10 积分 | 48 页 | 1.24 MB | 1 天前3
中国信通院:智算中心液冷产业全景研究报告(2025年)2025年8月 智算中心液冷产业全景研究 报告 (2025 年) 版权声明 本报告版权属于中国信息通信研究院,并受法律保护。 转载、摘编或利用其它方式使用本报告文字或者观点的,应 注明“来源:中国信息通信研究院”。违反上述声明者,本院 将追究其相关法律责任。 前 言 算力时代的蓬勃浪潮正深刻重塑着底层基础设施的发展格局,传 统数据中心正加速向以高密度、高算效为主要特征的智算中心迭代演 设备散热难题,并有效控制运行能耗,智算中心采取 了一系列技术革新,其中的一项关键举措便是应用液冷技术。 本报告以智算中心液冷技术为核心切入点,聚焦液冷产业链的上、 中、下游各环节,涵盖液冷系统关键零部件、液冷 IT 设备、液冷整 体解决方案及液冷智算中心实践等重要领域。通过梳理和分析各细分 市场产业竞合情况、前沿技术、热点产品以及未来发展趋势,旨在多 维度、立体化呈现智算中心液冷产业的整体图景与发展脉络。 发展脉络。 为推动我国算力领域液冷产业实现高质量发展,本报告认为,在 巩固优势方面,应持续培育壮大液冷产业市场,充分释放市场规模效 应;在弥补短板方面,应强化应用牵引,加快关键核心技术研发与创 新突破;健全标准规范体系,推动协同创新与开放解耦。 由于智算中心液冷市场产业链条长,关联覆盖广,报告内容疏漏 在所难免,敬请读者给予批评指正。 如需交流建议,欢迎联系报告团队:dceco@caict10 积分 | 48 页 | 2.33 MB | 1 天前3
2025年智算中心液冷整机柜服务器开放架构多样化算力兼容研究报告智算中心液冷整机柜服务器 开放架构多样化算力兼容研究报告 全球计算联盟 开放液冷专业委员会 1 编写单位 河南昆仑技术有限公司 中移动信息技术有限公司 高性能算力的需求持续增大。特别是在 AI 训练和推理任务中,高密度计算集群 的功耗需求日益攀升,传统的数据中心散热方案面临着严峻挑战。在此背景 下,液冷技术作为一种高效、节能的散热解决方案,正在加速改变数据中心的 技术架构和产业格局。 本报告引用和发扬了来自全球计算领域的众多专家学者、技术领军者、优 秀企业的经验总结和著作,深入探讨液冷整机柜设计、液冷智算中心架构优化 及多算力兼容等 及多算力兼容等关键技术,并提出了一套开放、灵活且高效的液冷智算架构解 决方案。该方案兼顾技术创新和工程实践,在提升计算密度的同时有效降低了 能耗,为数据中心的绿色化转型提供了有力的技术支撑。 从政策层面来看,近年来国家持续加大新基建投入力度,明确提出要建设 绿色低碳、高效节能的数据中心。相关部门出台了一系列指导性文件:到 2025 年,全国新建大型、超大型数据中心的电能利用效率(PUE)需控制在 10 积分 | 40 页 | 3.21 MB | 5 月前3
2025-2026年中国智算一体机行业研究报告2025-2026年中国智算一体机行业研究报告30 积分 | 60 页 | 32.89 MB | 5 月前3
2025-2026年中国智算一体机行业研究报告2025-2026年中国智算一体机行业研究报告30 积分 | 55 页 | 31.25 MB | 5 月前3
与非网:2024年中国智算产业全景调研:技术重构与演进报告张慧娟 2024中国智算产业全景调研: 技术重构与演进 SupplyFrame Media + E-Commerce 2 Supplyframe, Inc. Confidential & Proprietary. Do not reproduce or distribute. 智算产业现状总览 , 智算产业运行状况 , 智算中心核心驱动力 , 智算产业关键技术 , 智算产业竞争格局 生成式AI驱动的变革 生成式AI对智算产业的影响 , 生成式AI发展挑战 , 大模型对智算产业的作用 , 智算产业是否过度依赖大模型 算力基础设施架构和国产化情况 , 智算中心如何影响我国算力分配 , 算力卡供应情况 , 国产算力卡替代情况 , 智算中心AI芯片主要方向 , 智算中心利好AI芯片类型 未来挑战与趋势 , 如何提高智算中心运行效率 , 智算产业要解决的关键问题 , 智算产业发展挑战 智算产业发展挑战 , 智算产业应用领域 , 智算产业投资趋势 Agenda 3 Supplyframe, Inc. Confidential & Proprietary. Do not reproduce or distribute. 1. 智算产业现状总览 核心点: 驱动力 | AI训练与推理需求激增,驱动算力基础设施快速迭代 技术体系全景 | 覆盖芯片器件层(CPU/GPU/TPU)、硬件设施层(AI服务器/液冷)、平台调度20 积分 | 41 页 | 17.39 MB | 4 月前3
中国移动:云智算技术白皮书(2025)云智算技术白皮书(2025) 2 前言 云计算经历了资源云化(2006 年)、云原生化(2013 年)、算 力泛在化(2020 年)等阶段,随着人工智能与算力网络深度融合, 已迈入智能化的新阶段,向全栈智能、开放融合的云智算升级。 中国移动通过打造云智算技术体系,升级 AI IaaS、AI PaaS、 MaaS、AI SaaS 四层架构,推动算网大脑向算网智脑跃迁,构建全链 路可控 路可控用智安全,筑牢“供给者、汇聚者、运营者”定位。作为“供 给者”,融合中国移动算力、数据、算法优势,提供全方位能力支持; 作为“汇聚者”,打造 AI 生态平台,广泛汇聚多类型模型、多领域 能力、多场景智能体;作为“运营者”,以算网大脑为核心提供高效 运营服务,深化 AI 赋能。在此基础上,全面激活智能算力与应用普 惠新势能。 本白皮书详细阐述了云智算的发展背景、内涵,深入介绍云智算 的关键技术方向,为云智算的发展奠定基础。 的关键技术方向,为云智算的发展奠定基础。 云智算的发展成熟需要产学研用各方凝心聚力,实现从基础设施 到运营服务的全面升级,中国移动希望同业界合作伙伴一道,共同推 动云智算技术、产业、应用和生态成熟,助力千行百业注智赋能。 3 目录 云智算技术白皮书 ............................................... 1 前言 .................0 积分 | 30 页 | 716.31 KB | 5 月前3
艾媒咨询:2025-2026年中国智算一体机行业研究报告20 积分 | 60 页 | 32.89 MB | 4 月前3
智算中心建设项目环境影响报告表(77页-联通)30 积分 | 76 页 | 16.77 MB | 4 月前3
中兴-面向智算场景的高性能网络白皮书2025面向智算场景的 高性能网络白皮书 中兴通讯版权所有 编制说明 本白皮书在编制过程中得到了多家单位的大力支持,联合编制单位如下(排名不 分先后): 中国联通研究院 中国信息通信研究院 V1.0 发布时间 2025 年 2 月 ©2025 ZTE Corporation. All rights reserved. 2025 版权所有 中兴通讯股份有限公司 保留所有权利 版权声明: 中兴通讯版权所有未经许可不得扩散 1 1 前言 智算场景的普惠化正带来新一轮网络技术的革新浪潮。 随着生成式人工智能的发展,AI大模型参数量从GPT-3.5的1.75亿,到GPT-4的1.8万 亿,预计未来GPT-5将达到十万亿参数规模,迅速膨胀的AI模型需要更大规模的算力集群执 行训练。AI大模型以GPU集群分布式训练为基础,根据阿姆达定律,串行占比决定并行效 率上限,网络成为影响算力的重要因素。AI训练任务的高精度并行协同特性以及超大集群互 精度并行协同特性以及超大集群互 联吞吐量对网络性能提出了数量级的提升需求。AI大模型训练的时间往往长达数月,也使得 网络的长稳运行变得前所有未有的重要。从网络流量模型来看,AI大模型训练流量与通算流 量呈现出完全不同的特征,突发的稀疏大流成为网络常态,聚合流量具备波峰波谷效应明显、 周期性等特征,也使得很多通用数据中心的网络技术不再适用。HPC同样对网络提出高性能 需求,特别是在可扩展性10 积分 | 41 页 | 1.89 MB | 6 月前3
共 421 条
- 1
- 2
- 3
- 4
- 5
- 6
- 43
