未来网络发展大会:2025东数西算算网协同调度业务场景白皮书队工作站)、 贵州算家计算服务有限公司、合肥城市云数据中心股份有限公司、湖 南城市云智数科技有限公司、昆仑芯(北京)科技有限公司、南京中 科逆熵科技有限公司、宁夏西云算力科技有限公司、宁夏中卫市新型 互联网交换中心有限责任公司、派欧云计算(上海)有限公司、庆阳 云创智慧大数据有限公司、四川省算云科技有限责任公司、苏州国科 综合数据中心有限公司、算力互联(北京)科技有限公司、曙光信息 、能源等资源紧张的问题,算力供给受限;而西部地区资源丰富, 具备发展数据中心的天然优势,但数据需求相对不足。在此背景下, 我国“东数西算”工程应运而生。“东数西算”就是将东部地区产生 的数据传输到西部地区进行计算和存储,促进东西部算力协同联动。 1.2 目标及意义 目标:通过“东数西算”工程,在全国范围内规划建设多个国 家级算力枢纽节点和大数据中心集群,形成布局合理、绿色集约的算 力基础设施体系。 力基础设施体系。实现算力的规模化、集约化发展,提升算力使用效 率,降低算力使用成本,推动算力资源的高效配置。 意义:从经济角度看“东数西算”工程带动了数据中心建设、 网络通信、IT 设备制造、软件等相关产业的发展,促进了产业结构 优化升级,为经济增长注入新动力。在资源利用方面,充分发挥了西 部地区的能源优势,提高了能源利用效率,实现了东西部资源的优势 互补。同时,有助于缩小东西部数字经济发展差距,推动区域协调发20 积分 | 118 页 | 8.35 MB | 2 天前3
电子AI+系列专题:复盘英伟达的AI发展之路GPU(GPGPU) 计算的 CUDA 平台。 自 2015 年以后,随着 AI 浪潮迅猛推进,公司业务不断多元化, 向数据中心、游戏、移动设备、 汽车电子等市场发展。公司 GPU 产品能够并行计算的性能优势满足深度学习需求,通过对 GPU 架构升级不断推出新产 品,其运算性能得到显著提升,广泛 用于数据中心等计算密集领域。 请务必阅读正文之后的免责声明及其项下所有内容 复盘英伟达的 AI 发展之 路 英 英伟达业务模式拟打造成类似于计算堆栈或神经网络,包含硬件、系统软件、平台软件和应用四层,公司结合芯片、系统和软件的全栈创新能力构建加 速计算平台,并且完善针对 AI 加速计算及数据中心的 GPU 、 CPU 、 DPU 三种芯片产品结构。 AI 布局方面,早在生成式 AI 变革初期就已参与并与 OpenAI 、微 软合作。 2023 年 3 月,英伟达在 GTC 大会上推出 4 个针对各种生成式 A100 相比,配备四对 H100 与双 GPU NVLink 的标准服 务器的速度最高可达 10 倍。 l 计算与网络事业部收入占比提升,数据中心超过游戏成为收入主要来源。 FY23 ,公司收入为 269.74 亿美元,同比增长 0.22% ,主要由于数据中心及汽车领域收入的高速增长抵消了游戏及专业可视化领域所带来的收入减少; 净 利润为 43.68 亿美元,同比减少 55.21% ,主要由于运营费用同比增长10 积分 | 30 页 | 1.27 MB | 6 月前3
未来网络发展大会:2025算电协同技术白皮书5G、人工智能、工业 互联网等新一代信息技术的迅猛发展,全球算力需求呈现爆发式增 长,2023 年我国算力总规模已达 230EFLOPS,智能算力增速高达 45%。然而,这种增长也带来了严峻的能源问题,全国数据中心年 耗电量突破 1500 亿千瓦时,占全社会用电量的 1.6%,单次 AI 大模 型训练的能耗相当于数百个家庭年用电量。与此同时,我国电力系 统正在经历深刻变革,新能源装机占比已突破 50%,但“弃风弃 年我国算力总规 模达到 230EFLOPS,同比增长约 35%,其中智能算力增速更是高达 45%,显示出强劲的发展势头。然而,算力产业的爆发式增长也带来 了巨大的能源消耗问题。以数据中心为例,2023 年全国数据中心用电 量突破 1500 亿千瓦时,占全社会用电量的 1.6%,相当于三峡电站全 年发电量的 1.5 倍。更值得关注的是,随着大模型技术的快速发展, 单次训练能耗屡创新高——OpenAI 境。在此背景下, 算力负荷的时空可转移特性(如“东数西算”工程中的冷数据处理西 迁)和灵活调节潜力(如 AI 训练任务的错峰调度)为电力系统提供 了新的调节手段。研究表明,通过优化调度,全国数据中心可提供约 3000 万千瓦的灵活调节能力,相当于 30 座百万千瓦级抽水蓄能电站。 此外,在“双碳”目标约束下,算力产业的绿色转型需求迫切,但目 前绿电使用率仅 22%左右,亟需建立更高效的算电协同机制。10 积分 | 66 页 | 1.70 MB | 2 天前3
未来网络发展大会:2025光电融合网络技术与产业应用白皮书本白皮书系统阐述光电融合网络的技术特征与发展需求,深入分 析长距离相干光传输技术、IP+光融合架构、光电协同的智能管控系 统等关键技术,全面梳理国际国内标准进展与产业生态现状。通过剖 析数据中心互联、算力网络等典型应用场景,展示了光电融合网络在 降低 30%以上 TCO、提升 50%以上能效比等方面的显著优势。同时, 本白皮书提出三阶段发展路径与产业协同建议,旨在推动构建开放、 融合、智能的新一代光电网络体系。 人工智能大模型训练、工业控制、自动驾驶等新兴应用对网络延 迟要求极高。如 AI 大模型训练中,网络抖动与丢包会严重影响性能, 光电融合网络能有效降低延迟和抖动,满足这些应用的严格要求。 数据中心等网络设施能耗巨大,传统电交换网络能耗较高。光电 融合网络在光传输部分能耗较低,有助于降低网络整体能耗,符合绿 色节能的发展趋势。 光电融合网络则打破这一壁垒,提升网络资源灵活调度能力、降 同,构建“光电一体、融合协同”的新型信息基础设施,以解决传统 网络在带宽、时延、能耗方面的根本性瓶颈。 (1)带宽升级 网络带宽演进是一个不断发展提升的过程,从早期低速拨号上网, 到如今的千兆、万兆光纤入户,以及数据中心的超高带宽网络,经历 了多个阶段,以太网的速率也经历了从 10Mb/s,逐渐提升到 400Gb/s。 未来光电融合网络需要支持 800Gb/s、1.6Tb/s,甚至 100Tb/s,从而 支撑数据的速率增长。20 积分 | 95 页 | 2.94 MB | 2 天前3
未来网络发展大会:算力城域网白皮书(2025版)务的广泛应用和持续创新提供了强有力的基础设施支撑。 算力城域网白皮书(2025 版) 4 2.2 城市算力通过算力城域网就近服务本地用户 面对算力产业快速发展趋势,中国电信推出了面向智算的新一代 数据中心(AIDC,Artificial Intelligence Data Center)基础设施技术方 案,在高算力规模、高功率密度、高弹性需求背景下,同时兼容通算、 超算、智算,甚至未来的量子算力。在 万倍,后续大模型的算力需求预计仍将保持每年 4 倍以上的增长。 考虑到单个数据中心的算力规模受电力供应、机房空间等多重因素的 制约,为满足大模型快速增长的算力需求,需要推动多 AIDC 协同训 练,整合分布在不同地理位置的分散算力资源。同时,我国智算中心 规模普遍偏小(规模为 100-300 PFLOPS 的小型智算中心占比超 70%), 并且往往分散在不同的数据中心、科研机构、地方政府和云服务商。 因此,整合零 算力城域网提供租户级网络切片等软/硬隔离技术,为用 户提供安全隔离、确定性保障、高可靠的入算新服务。 算力城域网白皮书(2025 版) 18 五、算力城域网关键技术 算力城域网将算力服务由数据中心机房向广域网延伸,必须具备 相应的关键技术和能力。 (1)弹性带宽能力 企业普遍面临周期性数据传输带来的带宽配置难题:长期采用高 带宽专线会导致闲置期资源浪费,而低带宽专线则因传输时延过长造20 积分 | 42 页 | 7.16 MB | 2 天前3
电子AI+系列专题:DeepSeek重塑开源大模型生态,AI应用爆发持续推升算力需求视频)以及新推出的模型数量激增,均推动算力需求的增长,以 AIGC 为代表的 AI 应用用户数量爆发,推理侧算力需求快速增长。 l 全球数据总量大幅上涨,数据中心算力需求快速增长。随着人工智能等新技术发展,海量数据的产生及其计算处理成为数据中心发展关键。据 IDC 数据,全球数据总量 预计由 2021 年的 82.47 ZB 上升至 2026 年的 215.99 ZB ,对应 CAGR 达 21 训练和推理,并在光 线追踪和 DLSS (深度学习超级采样)方面有显著的改进。 • 2022 年的 Hopper 架构采用台积电 4nm 制程,集成多达 800 亿个晶体管,主要面向 AI 及数据中心 等构建。 • 2024 年 3 月最新推出的 Blackwell 架构采用台积电 4nm 制程,集成了 2080 亿个晶体管,使用 了二代 Transformer Secure AI 5 农业融合发展。 2022 年 12 月 中共中央、 国务院办公厅 《扩大内需战略规纲要 (2022-2035 年 ) 》 加快物联网、工业互联网、卫星互联网、壬兆光网建设,构建全国一体化大数据中心体系,布局建设大数据中 心国家枢纽节点,推动人工智能、云计算等广泛、深度应用,促进“云、网、端”资源要素相互融合、智能配 置。 推动 5G 、人工智能、大数据等技术。 2022 年 8 月10 积分 | 38 页 | 1.95 MB | 6 月前3
华为:2025年华为混合云现代化运维体系核心能力及最佳实践报告续赋能政企混合云,实现混合云运维的现代化。 混合云现代化运维体系参考架构 2.1 混合云现代化运维体系建设背景 政企客户在云化数智转型过程中,传统基础设施与云原生平台长期共存,运维部门要长期面向混合架构建立面 向多云多数据中心的协同管理能力,包括组织、流程、工具、平台等,因此构建面向混合架构的统一运维管理 体系势在必行。 08 根据华为混合云过往几千家客户的运维服务经验, 政企客户在运维体系建设落地过程中,普遍面临如 指标设计原则:从运维管理指标到运维 业务指标再到生死指标进行分层设计 云服务请求成功率 平均故障修复时间 变更请求成功率 数据持久性 云服务响应时间 云服务 可用度 3.2 运维组织设计 传统数据中心的运维组织比较简单,主要是面向IT设 备的运维,但业务云化之后,运维的对象发生了巨 大的变化,因此政企客户要求从现代化运维角度出 发,结合业务目标、运维对象和资产,设计对应的 运维组织架构,明确组织内各个团队之间、组织内 评 估和检查。 二线故障处理组: 由不同技能领域的运维专家共同构筑,并统一建设 运维能力,资源协调、人员调配、问题定位定界效 率高。 1、基础设施运维组: 数据中心环境的维护和管理,机房门禁权限的管 理,数据中心设施的运行状态检查及应急事件响 应等工作; 服务器、存储、网络等硬件设备的配置管理、资 产管理、备件管理、补丁升级、故障恢复、告警 处理、日常巡检及日常性能优化等工作;20 积分 | 53 页 | 8.80 MB | 2 天前3
未来网络发展大会:2025分布式算力感知与调度技术白皮书能化、自动化、最优化调度的新型信息基础设施,降低计算延迟与成 本,支撑新型智能化应用的落地。 分布式算力是相对于传统集中式算力(如单一超级数据中心)而 言的算力部署与利用模式,其核心是将一个大的计算任务分解成若干 个小任务,然后把这些小任务分配给地理、网络层级或逻辑上相互独 立的多个节点。这些计算节点可涵盖数据中心、边缘设备(如基站、 物联网网关)、终端设备甚至个人闲置设备等,通过网络连接形成协 同体系,实现算力资源 能耗与可持续性感知:随着“双碳”目标的推进,算力调度 的绿色属性愈发重要。感知需纳入能耗与碳足迹的实时监测; 调度决策则需将能耗和碳排放作为重要优化目标或约束条件, 例如优先将任务调度到使用可再生能源的数据中心或能效比 更高的节点,或利用电价谷值进行计算,实现“绿色调度”。 5 分布式算力感知与调度是现代计算范式的核心支柱。它通过构建 全域资源认知神经网和智能调度决策中枢,实现了对泛在、异构、动 节点故障等异常,智能进行任务迁移等操作保障业务连续性,同时确 保敏感数据在可信域内流转,构筑数据安全屏障。以绿色为目标,将 “绿色低碳”作为核心优化目标,与智能、安全深度融合。智能调度 系统把能耗与碳足迹作为核心调度因子,感知各数据中心实时情况, 智能分配计算任务,实现“算力调度”与“能源调度”协同,降低运 营成本和碳排放,落实“东数西算”绿色发展理念。 综上所述,分布式算力感知与调度的研究具有深远的战略意义和 广泛的应20 积分 | 73 页 | 2.15 MB | 2 天前3
华为-人工智能行业:智能世界2035-20250918-134页能体互联网的新一代 网络架构,推动实现高实时、高智能的交互体验,突破万物互联的边界。 在智能时代,全球范围内电力设施和能源成本将会是制约 AI 高速发展的核心要素,预计到 2035 年,全球数据中心耗电量将高达 1.5 万亿度,能源供给需要发生大的变革,可再生能源加速替 代传统化石能源,新能源发电量占比将突破 50%。同时,人工智能将成为新能源系统的核心,通过 Token 管理瓦特,实时 算分离”导致的数据搬运延迟与能耗,将在架 构演进中被彻底突破。技术路径将呈现清晰的 递进逻辑:首先,当前计算架构正在将异构算 力进行对等处理,消除多 XPU 多部件之间的主 从关系和调度带来的性能损耗,数据中心的算 网融合和全光互联等技术将进一步提高计算效 率;其次,近存计算技术将推动计算单元向存 储单元“靠近”,缩短数据搬运距离;最终, 存内计算技术将实现“数据不移动、计算在存 储内部完成”,从架构层面消除“内存墙”瓶 全的智能全光网、星地超宽网络演进 综合考虑家庭、个人、企业、AI 训推等场景 人与物的宽带需求,在流量驱动下,未来传送网 络接入层将出现 Tbps 级别的接口,骨干设备支 持单纤 100T,数据中心 3.2T 接口将实现商用。 未来通信网络将支持城市内 1ms、城市群 5ms、 骨干 20ms 的三级时延圈,并支持大于 6 个 9 的 网络可用性,及基于量子秘钥分发(QKD)通密 一20 积分 | 134 页 | 27.89 MB | 2 天前3
2025年超节点发展报告-华为&中国信通院Atlas 900 SuperCluster,实现了业界最大规模的高速总线互联。 L2 网络交换 节点服务器通过网络设备互联 传统节点架构 L1 网络交换 服务器节点 在大模型应用拉动下,传统数据中心的横向扩展范式暴露出跨机通信瓶颈。“一种以 AI 处理器 高速互联为核心、实现跨节点大带宽 / 低时延的集成计算单元范式”初现端倪。尽管“超节点”目前 是一个行业概念而非严格的技术标准,这标志着 着 AI 基础设施正在从“服务器集群”时代,迈向以软 硬件一体化、绿色高效为核心特征的“集成计算单元”时代。 3.1 全球产业的演进路线:从硬件聚合到系统构建 图 3.1 数据中心基础计算架构通信范式的演变 多颗 AI 处理器通过大带宽总线互联形 成一个逻辑上的超节点 超节点架构 … … … NPU NPU … NPU NPU … NPU NPU … NPU NPU … PCL-Reasoner-V1,率先突破大模型强化学习技术全栈壁垒,相关研究成果在国际顶级学术会议 中发表,展现我国人工智能算法创新能力。同时,昇腾 384 超节点采用液冷技术,数据中心 PUE 低至 1.1,鹏城云脑实现成本运营降低,实现绿色高效运营,较低的能耗符合绿色数据中心的发展理 念,树立良好的社会形象。 5.2 加速人工智能科学计算,服务算法创新 与行业集团大型业务场景需求融合,为全行业应用场景智能化需求提供坚实底座。人工智能是促20 积分 | 31 页 | 4.79 MB | 2 天前3
共 30 条
- 1
- 2
- 3
