未来网络发展大会:2025光电融合网络技术与产业应用白皮书络边缘延伸。当前网络架 构普遍采用“电处理+光传输”的分层方式,这一架构正面临功耗高、 转发复杂、跨层协同效率低等核心瓶颈。IP 流量主导的容量激增对新 一代节能技术提出更高的要求。行业正推动 IP 业务层与光传输层融 合,通过将 DWDM 相干光模块直接部署于路由器等分组设备,消除 独立光转发设备,降低功耗与空间占用。 光电融合技术从最开始的 IP over WDM 方案,已有十余年历史, 基础设施成为行业 共识。传统“电+光”分层架构下,多级转发、重复 OEO(光电光)转 换导致整体链路能效低下。光电融合网络的发展目标之一,正是通过 将高能耗的 IP 处理前移至光层边缘,利用低功耗相干模块(如 400G/800G ZR+)实现 IP 业务直接出彩光进入波分系统,减少两级 OEO 过程,大幅减少中间设备和机房能耗。在架构层面,通过 CPO (共封装光学)、硅光集成、动态光层调度等新技术,推动网络走向“极 引擎线卡、彩光 相干模块、模块化白盒波分设备、模块化白盒路由器、框式商用路由 器等形态。该层直接承载业务转发与光信号调制解调,是支撑 IP 业 务直接入光、光层传输、降低中继损耗、实现大带宽低功耗传输的物 理基础。其形态灵活、接口丰富,可按需部署于算力集群边缘、骨干 传输节点或广域边界侧。 协议层:该层为设备的操作系统与功能编排系统,负责统一管理 设备板卡、端口、链路等资源,支撑算力感知、自适应路径、彩光驱20 积分 | 95 页 | 2.94 MB | 18 小时前3
电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页图17: 边缘 AI 的数据传输 ................................................................. 12 图18: 量化可以降低功耗和占用面积 ........................................................ 13 图19: NVIDIA Turing GPU 体系结构中各种数据类型相对的张量运算吞吐量和带宽减少倍数 re training),在大模型场景上, 更青睐于 QAT,因为能够更好的保证性能。量化的优势包括减少内存占用,节省 存储空间,降低功耗和占用面积,提升计算速度。 请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 13 图18:量化可以降低功耗和占用面积 图19: NVIDIA Turing GPU 体系结构中各种数据类型相对的张 量运算吞吐量和带宽减少倍数 资料来源:NVIDIA,国信证券经济研究所整理 图37:语音交互过程示意图 资料来源:集微网,国信证券经济研究所整理 检测关键词的探测器(Detector)不仅要长时间待机且功耗要足够低到对电池寿 命无显著影响,并最小化内存占用和处理器需求。以 iPhone 的 Siri 为例,iPhone 的 Always on Processor(AOP)是一个小的、低功耗的辅助处理器,即嵌入式运 动协处理器。AOP 可以访问麦克风信号,并用自己有限的处理能力运行一个修剪 版神10 积分 | 25 页 | 2.20 MB | 5 月前3
2025年超节点发展报告-华为&中国信通院更强自主性的方向迈进,这意味着人工智能大模型的发展已进入一个系统性竞争的新阶段。这不仅 定义了技术的前沿,也对底层基础设施提出了前所未有的要求。人工智能大模型对计算基础设施的 挑战是系统性的,涵盖了算力、通信、功耗和运维等多个维度。 然而,这些看似分散的挑战,其根源几乎都可以追溯到一个核心的驱动理论——“规模定律”。 “规模定律”的提出是 AI 发展的里程碑,揭示了模型性能与参数、数据量、计算投入的关系,促使 带 宽成为决定整体训练效率的核心瓶颈。 正是这种瓶颈的演变,最终凸显了传统服务器集群架构面临的三重系统性挑战。首先是通信墙, 千亿级模型一次梯度同步即 TB 级数据,传统以太网难以承受。其次是功耗与散热墙,为破通信墙 而提升密度,促使液冷、48V 供电成为标配。第三是复杂度墙:万级处理器带来故障常态化,从业 界模型 GPT-3 (175B) 到 GPT-4 (1.9T) 的演进为例,随参数增至 利用率问题,进一步抬升运维复杂度。 表 1 不同并行模式下的通信特征 超节点发展报告 11 规模定律驱动的参数指数增长、从训练到推理的场景泛化、以及向多模态与智能体的跃迁,共同 施压基础设施,形成通信墙—功耗散热墙—复杂度墙的循环。未来随着推理深入企业核心业务,需 在低时延下实现高吞吐 / 高并发:逻辑推理等任务将带来推理算力需求或百倍增长,推理也将集群化, 对互联与全局调度提出更高要求。因此,能否20 积分 | 31 页 | 4.79 MB | 18 小时前3
未来网络发展大会:2025卫星互联网承载网技术白皮书正被探索用于馈线链路,Telesat、Boeing 等企业的星座计划通过该频 段实现卫星与地面站的超高速回传,潜在速率可达 100Gbps,但需解 决大气吸收(氧分子在 60GHz 附近有强吸收峰)与设备功耗问题。 如图 4-1 所示,当前商业星座广泛使用 L/S 波段(Iridium、Globalstar)、 Ku/Ka 波段(OneWeb、Starlink),并正在探索 50.2-52.4GHz 感知卫星星座的轨道参数、链路状态、业务需求等信息,运用复杂的 优化算法生成最优路由策略,并将其转化为流表 / 转发表定期或实 时上注至卫星互联网路由器。这种方式显著简化了星上处理载荷的设 计复杂度,降低了对卫星平台的功耗、算力和存储资源要求,尤其适 合早期小容量卫星星座或对成本敏感的任务场景。然而,集中式路由 对地面中心的依赖性极强,当地面控制器与卫星互联网路由器之间的 通信链路出现延迟、中断或干扰时,路由策略的更新将受阻,导致网 用户的无感卫星接入,单星支持百万级用户并发。未来 技术将向新旧终端兼容演进,一方面通过软件升级使存量 4G/5G 手 机支持基础卫星通信,另一方面在新终端中集成新一代天线技术,提 升天线增益并显著降低功耗。 5.2 应急保障类应用场景 卫星互联网在极端环境与关键任务中构建高可靠通信链路,成为 国家应急管理体系的核心基础设施。其价值体现在快速部署、抗毁性 强及广域覆盖三大特性,为灾害救援、公共安全提供“不断线的生命20 积分 | 85 页 | 3.37 MB | 18 小时前3
未来网络发展大会:2025算电协同技术白皮书将杭 州的 AI 训练任务迁移至内蒙古数据中心,节省电费支出 15%,减少 碳排放 20%。2024 年初,腾讯联合英特尔开发出智能负载调节系统, 可根据电网频率波动在 10 毫秒内完成服务器功耗调整,单数据中心 可提供最大 20%的瞬时调节能力。南方电网研发的“驭电”智能仿真 大模型,通过融合气象、负荷、设备等多维数据,将新能源预测准确 率提升至 95%以上。华为在贵安建设的绿色数据中心采用“分布式光 象、标 准接口和自治控制四个维度进行构建: (1)资源建模与能力抽象:通过构建统一的资源建模框架,对 不同类型算力资源的算力指标(如 FLOPS)、能效比(如 TOPS/W)、 网络延迟、功耗水平等进行标准化表达,形成可调度、可比对的虚拟 算力单元(Virtual Computing Unit, VCU),为算电协同调度提供抽象 载体[3]。 (2)异构算力编排与统一调度:引入容器化调度(如 类全新的调节资源形态 [11]。 此外,在能源互联网和多能融合背景下,还需构建统一的算力负 荷模型与运行行为描述机制,使电力系统能够识别并预判算力运行对 供能系统的影响。例如,通过建立动态计算功耗曲线与任务类型映射 关系,可实现算力负载在不同工况下对电网功率变化的预测响应,从 而纳入系统级调控模型中。 标准体系建设是推动算力设施参与电力市场交易和辅助服务的 前提。应制定涵盖算力设备状态感知、任务调度接口、电量与功率反10 积分 | 66 页 | 1.70 MB | 18 小时前3
电子AI+系列专题:复盘英伟达的AI发展之路高级复杂算法和通用性人工智能平台。 FPGA 半定制化 容易编辑 高 中 可通过编程灵活配置芯片架构适应算法迭代,平均性能较高;功耗较低; 开发时间较短。 量产单价高;峰值计算能力较低;硬件编程困难。 适用于各种具体的行业。 ASIC 全定制化 难以编辑 高 低 通过算法固化实现极致的性能和能效、平均性很强;功耗很低;体积小; 量产后成本最低。 前期投入成本高;研发时间长;技术风险大。 当客户处在某个特殊场景,可以为其独立设计一套专业智能 制程 单精度浮点 运算性能 ( TFLOPS ) 半精度浮点 运算性能 ( TFLOPS ) 整型定点 运算性能 ( TOPS ) 显存 (GB) 显存带宽 (GB/s) 功耗 (W) Google TPU v4 2021 7nm - 275 275 32 1200 192 平头哥 含光 800 2021 12nm - - 825 - - 276 寒武纪 思元 发布时间 制程 双精度浮点运算性能 ( TFLOPS ) 单精度浮点运算性能( TFLOPS ) 半精度浮点运算性能 ( TFLOPS ) 整型定点运算性能( TOPS ) 显存 显存带宽 最大功耗 H100 SXM 2022 4nm 67(Tensor Core) 989(TF32,Tensor Core) 1979(Tensor Core) 3958(Tensor Core) 80GB 310 积分 | 30 页 | 1.27 MB | 5 月前3
未来网络发展大会:2025分布式算力感知与调度技术白皮书算节点,识别其 CPU、GPU、FPGA 等类型,以及内存、存储容量等基 础属性。其次,通过轻量探针或节点遥测数据,实时监控 CPU/GPU 利 用率、存储占用率、网络带宽与延迟、负载水平、功耗及环境温度等 核心指标。更关键的是,感知需深入能力评估,如量化计算单元的理 论峰值性能(如 FLOPS)及对特定负载的实际加速效能。网络感知需 3 精确测量任务提交点、计算节点间的拓扑关系、带宽、延迟、丢包率 杂的业务需求,从容应对激烈的市场竞争。 从硬件基础层面来看,算力基础设施朝着异构化与分布式方向加 12 速迈进。不同类型的计算芯片,诸如 CPU、GPU、FPGA 以及新兴的 ASIC 芯片等,在性能、功耗以及适用场景等方面呈现出显著差异,共同构 建起复杂的异构计算环境。与此同时,计算节点的分布范围不断拓展, 从传统的数据中心延伸至各类边缘计算节点,如基站、工厂、园区等。 这一发展态势要求分布式算力感知与调度系统必须能够精准识别各 策:在非高峰时段或对画质要求不高的场景下,优先利用能效更高的 硬件编码器和共享算力资源;在高价值关键会话中,则自动启用性能 最强但相对耗电更高的 GPU 实例,并在会话结束后迅速回收。通过对 功耗、性能与用户付费等级之间的动态平衡,运营方既能最大程度降 低能源开支,也能确保用户在关键时刻获得最佳体验。 展望未来,随着虚拟现实、增强现实和下一代无线技术(5G/6G、 Wi-Fi 7)的普20 积分 | 73 页 | 2.15 MB | 18 小时前3
2025中国RFID无源物联网行业产业白皮书-161页◎海量抛弃型应⽤����������◎复杂场景应⽤ 凯路威是国内最早⾃主研发⽆源�RFID�标签芯⽚的企业之⼀。公司全⾃主研发的�XLPM(Super�Low-power� Permanent�Memory,超�功耗永久性�储器)技术,助⼒⾃研�X-RFID®��⽚具有极致性能和极致成本双属性优 势。⾯向海量应⽤的超低成本需求,以及复杂场景应⽤的技术难点,�X-RFID®��⽚�终保持领先优势。 凯路威全球 产业中,能量技术 在产业的地位也在迅速提升。 近些年涌现出来的 NB-IoT、LoRa 等新兴传输技术一个最主要的卖点就是低功耗。而蓝牙、Wi-Fi、Zigbee 等成熟的 无线传输技术,每一代版本的演进突破方向之一,就是如何把功耗做的更低。 为何 IoT 市场如此重视低功耗 在 IoT 市场产业中,200 亿、500 亿、1000 亿,这样的连接数字频频出现在人们的视野。 这些庞大的 IoT 一个很大的数字,并且,如果功耗大,1 台设备更换电池就会很频繁,电池的成本更高。 • 隐性成本就是电池对 IoT 产品的尺寸形态带来的改变,对环境造成的损害等,隐性成本虽无法量化,但成本的总 量也会很高。 很多场景需要做到单个电池的使用寿命与 IoT 设备的迭代周期同步,即当电池电量耗完时,这个设备也需要更换。 这一需求也促使了各类 IoT 相关的技术都在往低功耗的方向演进,不仅仅是无线通信技术,还有低功耗传感器产品,20 积分 | 161 页 | 13.17 MB | 18 小时前3
电子AI+系列专题:DeepSeek重塑开源大模型生态,AI应用爆发持续推升算力需求48GB 显存带宽 最高 8 TB/s 最高 8 TB/s 4.8 TB/s 3.35 TB/s 3.35 TB/s 2039 GB/s 2039 GB/s 864 GB/s 864 GB/s 热设计功耗 1000W 700W 最高 700W 最高 700W 最高 700W 400W 400W 350W 300W 互联速度 NVLink : 1.8TB/s PC le 6.0 : 256GB/s 服务器占比 图:搭载 GPU 的 AI 服务器市场格局 算力 中 高 通过算法固化实现极致 的性能和能效、平均性 强;功耗低;体积小; 量产后成本低。 资料来源: Trendforce ,国信证券经济研究所整理 资料来源: Trendforce ,国信证券经济研究所整理 牧本摆动每十年波动一次,有望从标准化摆向定制化。 1987 年,原日立公司总工程师牧本次生提出牧本摆动,揭露半导体 产品发展历程总是在“标准化”与“定制化”之间交替摆动,大概每十年波动一次。牧本摆动背后是性能、功耗和开发效率 之间 的平衡,当算法发展达到平台期,无法通过进一步创新来推动发展时,就需要依赖于扩大规模来维持进步,这时转向 ASIC 的开发就变得至关重要。然而十年后,当规模扩张遭遇限制,又10 积分 | 38 页 | 1.95 MB | 5 月前3
电子行业:AI大模型需要什么样的硬件?-20240621-华泰证券-40页算力提出更高要求, 高通、英特尔、AMD 等芯片厂商纷纷展开布局,陆续推出针对 AI PC 场景优化的芯片产品。 在 PC 侧,使用独立 GPU 运行 AI 运载,具备高性能、高吞吐量等优势,但功耗高;NPU 方案更具高能效、低功耗等特点,但对高性能要求 AI 负载支持能力有限。考虑 AI 任务需求 以及用户偏好不同,我们认为 AI PC 市场使用 1)CPU+NPU+GPU 处理器(英特尔 Meteor Lake/AMD 数据。此外联想等厂商也同样在自 研 AI 芯片(如联想拯救者 Y7000P、Y9000P、Y9000X、Y9000K 四款新品笔记本搭载的 搭联想自研 AI 芯片——LA 系列芯片),实现智能的整机功耗分配。 图表17: AI PC 对比 Brand Lenovo Microsoft Apple Intel 产品 ThinkBook 16P Suferface Pro 基础上打造了机器人仿真平台 Isaac SIM。在数字孪生环境中, 实现和真实环境一样的开发和测试效果,如获取真实环境中难以得到的数据,可以加快 开发流程和减少开发成本。 3) 端侧平台。机器人本体的部分做了低功耗高性能的嵌入式计算平台,以及感知、决策规 划等的 AI 算法增强的应用部署。如英伟达推出的 Jetson Thor SoC 片上系统开发硬件, 内置了下一代 Blackwell GPU(此前英伟达也推出过针对汽车的10 积分 | 40 页 | 2.60 MB | 5 月前3
共 22 条
- 1
- 2
- 3
