2025异网异构边缘算力系统总体架构研究报告-中国铁塔
645.11 KB
23 页
0 下载
3 浏览
0 评论
0 收藏
| 语言 | 格式 | 评分 |
|---|---|---|
中文(简体) | .pdf | 3 |
| 概览 | ||
异网异构边缘算力系统总体架构 研究报告 2025 年 8 月 版权声明 本报告版权属于中国铁塔股份有限公司、中国信息通信研究院、 中国移动设计院、江苏省未来网络创新研究院所有并受法律保护,任 何个人或组织在转载、摘编或以其他方式引用本报告中的文字、数据、 图片或者观点时,应注明“来源:中国铁塔股份有限公司、中国信息 通信研究院、中国移动设计院、江苏省未来网络创新研究院”。否则 将违反中国有关知识产权的相关法律和法规,对此中国铁塔股份有限 公司、中国信息通信研究院、中国移动设计院、江苏省未来网络创新 研究院有权追究侵权者的相关法律责任。 前 言 随着人工智能与实体经济深度融合,车联网、工业互联 网、远程医疗等低时延场景爆发式增长,对我国算力基础设 施提出“广覆盖、快响应”的新需求。为了落实《算力基础 设施高质量发展行动计划(2023)》、《算力互联互通行动 计划(2025)》的要求,我国在加速智算中心建设的同时, 亟需构建服务于产业数字化的边缘算力系统,强化场景化就 近算力供给能力。本报告针对当前边缘算力资源碎片化、组 网方式多样化、管理孤岛化等问题,首次系统化提出“异网 异构边缘算力系统”架构,通过多元异构算力融合调度与跨 域网络智能协同关键技术,为边缘算力的建设和发展提供实 施路径参考。 目前,产业界与学术界对异网异构边缘算力系统的研究 尚处于探索起步阶段,新的架构和应用模式正在不断涌现。 本研究报告为阶段性成果,尚待持续完善,诚挚期待读者批 评与指导。 参编单位:中国铁塔股份有限公司、中国信息通信研究 院、中国移动设计院、江苏省未来网络创新研究院 参编人员:郭宇辉、麻文军、窦笠、何杰、潘三明、聂 昌、贾平胜、张民贵、闫亚旗、徐佳祥、魏华、董玉池、付 韬、王哲、王计艳、王艺晨、魏亮、方辉、孙玉刚、尹鹏 目 录 一、边缘算力系统背景与概述 ..................... 1 1.1 边缘算力系统发展背景 .................... 1 1.2 边缘算力基本概念 ........................ 3 1.3 边缘算力系统主要功能 .................... 3 二、边缘算力系统架构 ........................... 5 2.1 总体架构设计 ............................ 5 2.2 边缘算力节点的部署 ..................... 11 2.3 网络连接与通信机制 ..................... 12 2.4 云边协同模式 ........................... 13 三、边缘算力系统应用场景 ...................... 13 3.1 车联网应用场景 ......................... 14 3.2 新型工业网络应用场景 ................... 14 3.3 远程医疗应用场景 ....................... 15 3.4 智慧城市应用场景 ....................... 15 四、未来发展趋势展望 .......................... 16 4.1 技术发展趋势 ........................... 16 4.2 面临的挑战和不足 ....................... 17 4.3 面临的机遇 ............................. 18 4.4 发展建议 ............................... 18 1 一、边缘算力系统背景与概述 1.1 边缘算力系统发展背景 数字化转型推动新型工业网络、车联网、智慧城市等领域加速发 展,人工智能和大数据应用对算力需求呈现爆发式增长。我国大力发 展网络化互联设备,各行业各领域不断提升数字化和信息化水平。各 类应用对于算力的需求不断增长,尤其是人工智能训练神经网络大模 型需要处理海量数据,大量通用大模型、专用大模型、行业大模型等 对算力提出了远超传统应用的需求,我国建设算力总规模正在稳步提 升,位居全球第二。目前算力资源主要分为中心算力、边缘算力和本 地算力。其中,智算中心在处理计算任务时面临实时性较弱与隐私风 险,而很多设备的本地算力远不能满足人工智能、大数据等技术应用 要求。在新型工业网络、车联网等场景中,算力基础设施需要满足实 时响应、业务灵活、任务迁移等需求,边缘算力通过下沉至数据源头、 就近处理关键任务,成为人工智能实时场景中落地的必然选择。边缘 计算具有临近数据源、减轻云端数据压力以及保护用户隐私等显著优 势。 我国产业界大力发展边缘算力设施,分散式建设进程导致算力硬 件和互联网络呈现出较大差异,异网异构资源难以高效管控与对外服 务。我国边缘算力设施存在差异巨大的异构算力硬件,芯片类型包括 了通用 CPU、GPU、FPGA、ASIC 等,服务器架构具有并存的 x86 架构 与 ARM 架构,导致算力度量、管控和调度需要克服不同芯片厂商的标 准差异。单一边缘节点受限于算力容量、计算资源异构、并发服务总 2 数等短板,难以满足大规模用户的请求,导致各单位建设了大量的边 缘计算节点,不同单位的边缘算力之间缺乏协同机制。各单位先建立 了机房内局域网络,再通过多种运营商网络接入公网,边缘机房的接 入网络既包含无线网络也包含数据通信网络,给算网协同调度带来了 一定难度。产业界无法综合管控属主各异的算网资源,形成事实上的 资源涣散,亟须面向用户提供异网异构边缘算力的统一管控能力。 为了解决上述问题,工信部 2025 年 5 月 21 日印发《算力互联互 通行动计划》,该行动计划提出建设多级算力互联互通平台,建设区 域、行业算力互联互通平台,接入通、智、超以及云、边、端等各类 公共算力资源。多级算力互联互通纵向上需要实现云边端业务互联互 通,横向上需要实现跨域协作。在边缘计算领域,我国需要将局部边 缘算力通过多种网络方式互联,形成统一的边缘算力资源层。 为了进一步引领我国边缘算力产业的规范化协调发展,本报告提 出边缘算力系统这一新型算力基础设施,解决边缘算力整合难的问题, 加速边缘算力服务的落地应用。边缘算力系统通过整合分散的边缘节 点资源,构建分布式算力池,进一步释放边缘算力的潜力。首先,边 缘算力系统能根据业务负载动态调度算力,让算力盈余的边缘节点将 闲置资源共享给算力不足的节点或用户,通过节点间任务协作实现资 源高效利用。提高闲置算力的利用率。其次,边缘算力系统通过多节 点冗余备份,邻近节点可快速接管故障节点的任务,显著增强系统抗 风险能力。最后,边缘算力系统通过多样化的网络实现离散边缘算力 3 节点互联互通,具备将网络与算力统一管控的能力,支持网络对计算 任务的动态适配和优化。 1.2 边缘算力基本概念 边缘算力是指在靠近用户侧部署的计算能力,具体包含推理决策、 执行计算任务、存储数据、训练模型等能力,它不仅包括硬件层面的 计算能力,如处理器的运算速度、内存容量、存储能力等,还涵盖软 件层面的算法处理能力,如数据预处理、实时分析、智能决策等算法 的效率和准确性。 边缘算力为各类实时应用提供了算力底座,通过在靠近数据供需 两侧的位置提供数据处理能力,大幅缩短原始数据传输距离,从物理 层减少延迟产生的因素,最终大幅降低端到端延迟。人工智能的训练 和推理过程需要大量算力,鉴于各领域终端设备自身算力较低,智算 中心实时性较差,边缘算力成为未来承载人工智能应用的重要载体。 边缘算力系统是一种依托多种网络连接技术将多元边缘算力整 合为有机整体的算力基础设施。异网异构边缘算力系统的核心目的是 通过边缘侧的算网编排与调度整合分散在各地的边缘算力机房,构建 可按需调度的算力服务体系,提供应用、计算、存储、网联等边缘侧 服务。 1.3 边缘算力系统主要功能 边缘算力系统的主要功能包括边缘算力融合、算力实时响应、跨 域计算协同优化和弹性容错机制。 4 促进异构算力融合,形成 AI 算力资源池。首先,边缘算力系统 需要对各种不同来源的算力统一资源抽象与调度,采用容器化和虚拟 化技术将 CPU、GPU、ASIC 等异构硬件资源抽象为标准化虚拟单元, 通过 Kubernetes 扩展框架实现资源池化管理。其次,边缘算力系统 加强各应用业务标准化接口与协议适配,建立跨设备协议对接机制, 利用 ONNX Runtime 等框架实现模型跨平台部署,在边缘节点可将深 度学习推理速度提升,使用轻量化中间件通过异步优化消息传输,降 低边缘设备内存占用。最后,边缘算力系统实现端边云协同与弹性扩 展,通过大量边缘节点构建泛在算力服务能力,支持大模型推理的弹 性调度,算力管控平台可动态匹配任务与算力资源。 靠近用户提供服务,支撑全域实时响应。单一边缘节点的覆盖范 围有限,若实时应用需跨区域协同或复杂度过高,可能超出单个节点 的算力承载能力。边缘算力系统通过“就近节点联动”打破这一局限, 通过多样化的网络互连邻近节点,进而采用算网一体化资源调度支撑 计算任务协同。一方面,将跨区域实时任务分解至相邻边缘节点,各 节点并行处理本地数据,再通过节点间低时延通信完成全局协同决策, 避免单一节点覆盖不足导致的响应盲区;另一方面,通过算力聚合调 度,多个节点的异构算力可协同支撑复杂任务,解决单点算力不足的 瓶颈。 优化资源利用效率,提高实时应用稳定性。单一边缘节点的资源 调度具有局限性,若某区域实时任务突发激增,孤立节点可能因过载 导致延迟。同时,异构算力资源若缺乏协同调度,会形成“算力孤岛”, 5 无法按需匹配实时任务需求。边缘算力系统可以将计算任务进行拆分, 通过协调直接服务节点临近的算力,实现服务提升与资源利用最大化。 强化边缘侧算网一体化协同,形成多目标调度策略。运营商难以 将互联网内所有算力资源统一管控,为了实现边缘侧的灵活调度策略, 边缘算力系统可以在靠近用户侧实现资源分治,减少云端的资源调度 压力,为了满足边缘业务实时性需求,需要边缘算力系统在合理分配 计算任务的基础上,动态围绕计算任务类型、部署位置和执行顺序优 化网络通信路径。由于边缘侧业务种类随垂直行业和应用场景不断增 多,就需要具有多种调度策略,依据应用类型决定算力和网络的调度 优先级和权重,形成自适应的边缘算力与网络整体调度方案。 弹性协同容错机制,提升快速抗风险能力。边缘算力系统通过“多 路径冗余”与“故障自愈”机制应对节点或网络故障。组网后节点可 接入多元网络,当某一网络制式故障时,自动切换至其他可用网络; 同时,组网形成的节点集群可实现“故障接管”,某节点故障后,相 邻节点通过实时同步的资源与任务信息,快速接管其负责的实时任务。 二、边缘算力系统架构 2.1 总体架构设计 2.1.1 边缘算力系统功能架构 面向异网异构的边缘算力系统需满足异构资源整合、跨域(路由 管理域)互联协同、算网统一管控调度等核心功能需求,其功能架构 如图 2-1 所示,从逻辑上可分为边缘基础设施层、边缘算网控制层和 边缘算网应用层三部分。 6 图 2-1 边缘算力系统功能架构图 边缘基础设施层由边缘算网资源底座和边缘算力网关两大模块 构成。边缘算网资源底座通过虚拟化技术整合异构算力资源和多个区 域的网络资源,实现底层资源的统一抽象与灵活调度。边缘算力网关 提供关键协同功能,利用算力发现与通告构建全局算网资源视图,依 托传输连接管理、边缘算力协同实现算网资源统一调度,并通过标准 化云边协同接口实现与上层系统的无缝对接。其中,算力发现与通告 模块用于实现异构算力资源统一注册、动态发现及全局通告,构建实 时资源目录以支撑算力协同调度。链路状态分发协议(BGP-LS)是收 集、分发和传递算力资源信息的协议,使网络能够基于计算资源的状 态进行智能路由决策。传输连接管理模块支持跨域协议及协议转换, 保障多元网络环境下业务传输质量与可靠性;边缘算力协同模块用于 实现算网应用与算力资源的自动适配、路由编排及故障处理,保障业 务连续性与资源协同效率;云边协同接口模块通过标准化接口集成云 7 原生工具链,同步云边资源状态并支持断连自治,实现云边无缝联动 与灵活协同。 边缘算网控制层是异网异构边缘算力系统的核心功能层,负责全 域资源的统一管控与编排调度,包括算网资源管理和算网协同调度两 大部分。边缘算网控制层通过标准化南向接口与边缘基础设施层交互, 实现资源指令下发与状态采集,同时通过北向接口为上层应用提供开 放的算网服务能力。算网资源管理模块通过全域资源监控、算网资源 纳管、资源预留与编排和算网度量与计费实现跨域算力/网络资源的 可视化管控与弹性分配。其中,全域资源监控模块能够实时采集边缘 节点计算、存储及网络资源状态数据,支撑资源立体化管控与异常预 警;算网资源纳管模块支持边缘节点快速注册及多厂商设备接入,实 现异构算力与多元网络资源的统一纳管及状态同步,保障资源标准化 管理;算网度量与计费为算网协同提供标准化的量化依据,依据运营 商服务统计使用的算网资源结算费用;资源预留与编排模块通过算网 多维资源编排与跨节点调度预分配资源,保障关键业务 SLA 履约并支 持弹性扩缩容,优化资源利用效率。算网协同调度模块基于服务策略 定义和开放并网机制,结合实时数据驱动的流量与算力联合调度算法, 优化资源利用效率。其中,服务策略定义模块支持多维度 QoS 策略定 义及冲突消解,通过“策略-资源-服务”映射模型来驱动底层资源 智能调度与配置;开放和并网功能模块提供算力能力开放接口并支持 边缘算力并网至中心云或其他节点,构建标准化服务接口以实现跨域 协同与第三方应用接入;流量与算力调度模块综合网络带宽、计算时 8 延等多维因素优化资源分配,实现流量负载均衡与故障切换,保障端 到端 QoS 及资源高效利用。K8s 平台依托其容器编排能力,将算力节 点与网络资源抽象为统一资源池,可以调控网络带宽、延迟等参数, 其资源调度器插件具有算网协同调度功能,支持动态适配算力负载。 同时,K8s 可以优化资源分配,提升算网资源利用率与任务执行效率, 满足边缘场景下低延迟、高可靠的调度需求。 边缘算网应用层通过北向接口获取边缘算网控制层开放的算网 服务能力,面向各类业务场景提供多样化的算网协同应用。其基于边 缘算网控制层统一管控的全域算网资源,将算网协同调度后的资源能 力与具体业务需求相结合,实现算力与网络资源的智能化、场景化应 用,为工业控制、视频分析等不同领域的业务提供低时延、高可靠的 算网服务支撑,推动边缘算力在各行业的深度落地与应用创新。 2.1.2 边缘算力系统部署架构 边缘算力系统的总体部署架构如图 2-2 所示,可分为边缘算力区 域、异网与边缘算网管控系统三大部分。 9 图 2-2 边缘算力系统部署图 位于区域边缘侧机房的异构算力资源包括多种算力芯片(CPU、 GPU、NPU、FPGA 等),不同地理位置机房的算力通过边缘算力网关 实现互联互通。算力资源的互联可分为域内互联和跨域互联两种模式: 域内互联应采用统一的运营商网络或私有网络架构,实现同一区域内 不同机房中的算力资源的互联互通;跨域互联指不同区域之间的算力 资源的互联,不同区域的网络根据实际情况可能采用不同运营商公网 或企业私有网络。因此,跨域互联需要打通不同运营商、运营商和私 网之间的网络连接,面向异网异构的边缘算力系统应支持不同区域异 网环境下的跨域交互。 异网由不同运营商公网或企业私有网络构成。作为“网络传输中 枢”,异网承担两大任务:一是承载云中心与区域层的双向通信;二 是通过 Underlay 与 Overlay 协同架构实现跨网互联。Underlay 作为 物理传输基础,依托 5G、光传输、MPLS 等网络技术,为各类网络提 供底层连接,域内采用 OSPF 或 EBGP 实现路由互通,域间通过 BGP 协 议支撑骨干节点互联;Overlay 则基于 Underlay 构建逻辑网络,通 过 SD-WAN、VxLAN、SRv6、VPN 等技术,在骨干节点处完成协议封装 与解封装,实现不同运营商网络、运营商与私网的虚拟化互联。这种 架构既借助 Underlay 保障物理传输稳定性,又通过 Overlay 突破网 络多样化壁垒,支撑跨网算力协同的底层通信。 边缘算网管控系统由算力管控平台和网络管控平台组成,在边缘 算力系统中主导跨域协同任务的全流程调度。当计算任务需跨域协同 10 时,算力管控平台首先依托全域算力资源视图,根据任务需求(如算 力强度、时延要求)匹配并分配适配的跨域算力节点及对应资源;随 后,网络管控平台基于已选定的算力节点,实时分析跨域网络拓扑与 负载状态,规划最优数据传输路径,并通过协议转换、链路冗余等机 制保障跨域传输的可靠性与 QoS;二者协同完成从算力分配到传输保 障的闭环调度,确保跨域任务高效执行。 2.1.3 计算任务处理流程 边缘算力系统的数据流向遵循“本地化处理为核心、全局调度为 补充”的原则,具体流程如下: (1)计算任务生成时,首先将算力需求等关键信息上报至本地 边缘算力网关,若算力网关判断本地算力资源能够满足任务处理需求, 则优先在本地处理该计算任务; (2)若算力网关判断本地计算资源无法满足任务处理需求,则 将任务信息进一步上报至边缘算网管控系统; (3)边缘算网管控系统结合全域资源状态及任务传输需求,为 其匹配最佳的计算节点,并生成调度策略; (4)调度策略生成后,边缘算网管控系统中的网络管控平台配 置相关异网资源保障业务可靠传输; (5)边缘算网管控系统的调度指令下发至边缘算力网关,网关 根据调度结果进行算力路由规划,将任务传输至目标边缘节点进行计 算; 11 (6)边缘节点执行计算任务后,将结果反馈至边缘算力网关形 成闭环。 2.2 边缘算力节点的部署 边缘算力节点是边缘算力的物理载体,其类型需匹配场景的算力 需求、部署环境与成本约束,硬件选型则需围绕“算力适配、环境耐 受、接口兼容”三大核心目标。边缘算力节点按功能与形态可分为终 端级、网关级、服务器级三类,终端级可选择嵌入式芯片,网关级可 采用工业级 CPU,服务器级搭配高性能 CPU+AI 加速芯片,同时工业 场景可选择宽温抗振硬件、户外场景可选择防水防尘设备,并按需适 配工业总线、无线等接口。 边缘节点部署遵循“靠近数据源且便于网络协同”原则,结合业 务场景、网络架构、时延需求及成本约束综合决策,需贴近数据源头 以降低时延,并保障通信可达性。 边缘机房聚焦区域级算力覆盖。将新建边缘机房部署在用户/终 端密集区的地理中心,服务范围覆盖产业园区核心区、交通枢纽的写 字楼、工厂集群等。将现有通信基础设施复用,依托运营商基站机房、 数据中心边缘节点改造,利用既有电力、制冷和光缆资源,降低建设 成本。 边缘算力网关是贴近终端的“最后一公里”。边缘算力网关可以 部署在终端集群内部。边缘算力网关可部署在网络接入点侧,例如可 与 5G 小基站汇聚点共址,利
| ||
下载文档到本地,方便使用
- 可预览页数已用完,剩余
21 页请下载阅读 -
文档评分


智慧校园系统集成总体架构设计方案附初步概算