电子AI+系列专题:DeepSeek重塑开源大模型生态,AI应用爆发持续推升算力需求TFLOPS 9.7 TFLOPS - - 显存 最高 192GB 最高 192GB 141GB 80GB 80GB 80GB 80GB 48GB 48GB 显存带宽 最高 8 TB/s 最高 8 TB/s 4.8 TB/s 3.35 TB/s 3.35 TB/s 2039 GB/s 2039 GB/s 864 GB/s 864 GB/s 热设计功耗 1000W 700W 最高 700W 最高 6.0 : 256GB/s NVLink : 1.8TB/s PC le 6.0 : 256GB/s NVLink : 900GB/s PC le 5.0 : 128GB/s NVLink : 900GB/s PC le 5.0 : 128GB/s NVLink : 400GB/s PC le 5.0 : 128GB/s NVLink : 600GB/s PC le 4 4.0 : 64GB/s NVLink : 400GB/s PC le 4.0 : 64GB/s PC le 4.0 : 64GB/s PC le 4.0 : 64GB/s l 英伟达 GPU 芯片随着架构的不断演进及算力的成倍增长,在大算力需求的 AI 大模型训练中得到广泛运用。基于 Ampere 架构的 A100 GPU 建立在 Volta 和 Turing SM 架 构中引入的特性之上,并显著提高了性能,与10 积分 | 38 页 | 1.95 MB | 5 月前3
【评估标准】GBT434392023信息技术服务数字化转型成熟度模型与评估ICS 35.080 CCS L 77 中 华 人 民 共 和 国 国 家 标 准 GB/T 43439—2023 信息技术服务 数字化转型 成熟度模型与评估 2023-11-27 Information technology service—Digital transformation— Maturity model and assessment 发布 2024-06-01 2024-06-01 实施 国 家 市 场 监 督 管 理 总 局 国 家 标 准 化 管 理 委 员 会 发 布 I GB/T 43439—2023 目 次 前言 .................................................................................... Ⅲ 1 范围 ................. ............................................................................25 Ⅲ GB/T 43439—2023 前 言 本文件按照GB/T1.1—2020《 标准化工作导则 第1部分:标准化文件的结构和起草规则》的规定 起草。 请注意本文件的某些内容可能涉及专利。本文件的发布机构不承担识别专利的责任。0 积分 | 28 页 | 873.49 KB | 19 天前3
DeepSeek如何影响银行业CPU 内存需求 适用场景 1.5B 4GB RTX 3050 8GB 个人学习 7B 、 8B 16GB RTX 4090 32GB 小型项目 14B 24GB A5000 x2 64GB 专业应用 32B 48GB A100 40GB x2 128GB 企业级服务 70B 80GB A100 80GB x4 256GB 高性能计算 671B 640GB+ H100 集群 不可行 超算 /10 积分 | 27 页 | 6.51 MB | 5 月前3
2025面向工程审计行业的DeepSeek大模型应用指南-南京审计大学工程审计学院(45页 WORD)AMD 多 核处理器 8GB 及以 上 3GB 以 上 纯 CPU 推理时无需显卡; 若需 GPU 加速,可选 4GB 及以上显存的显卡, 如 GTX 1650 DeepSeek - R1 - 7B 8 核及以上,推荐使 用现代多核 CPU 16GB 及 以上 8GB 以 上 建议配备 8GB 及以上显存 的显卡,例如 相近,但各项性能要 求略高 10 - 20% 略高于 16GB 略高于 8GB 显存要求略高于 8GB,性 能上要求比 DeepSeek - R1 - 7B 对应的显卡略高 DeepSeek - R1 - 14B 12 核及以上 32GB 及 以上 15GB 以 上 需 16GB 及以上显存的显 卡,如 RTX 4090 或 A5000 i9 处理器 64GB 及 以上 30GB 以 上 需 24GB 及以上显存的显 卡,如 A100 40GB 或双卡 RTX 3090 DeepSeek - R1 - 70B 32 核及以上的服务 器级 CPU 128GB 及 以上 70GB 以 上 需要多卡并行, 如 2 张 A100 80GB 显卡或 410 积分 | 59 页 | 1.06 MB | 20 小时前3
电子AI+系列专题:复盘英伟达的AI发展之路升关键。 版本 GPT 1 GPT 2 GPT 3 时间 2018 年 6 月 2019 年 2 月 2020 年 5 月 参数量 1.17 亿 15.4 亿 1750 亿 预训练数据量 5GB 40GB 45TB 训练方式 Pre-training+Fine-tuning Pre-training Pre-training 序列长度 512 1024 2048 # of Decoder Layers 名称 产品型号 发布时间 制程 单精度浮点 运算性能 ( TFLOPS ) 半精度浮点 运算性能 ( TFLOPS ) 整型定点 运算性能 ( TOPS ) 显存 (GB) 显存带宽 (GB/s) 功耗 (W) Google TPU v4 2021 7nm - 275 275 32 1200 192 平头哥 含光 800 2021 12nm - - 825 - - DPU 三种芯片的公司。 l 随着数据中心浪潮推进,公司陆续完善三种芯片产品结构。其中,集成 800 亿 晶体管的迄今为止最先进的 GPU H100 已于 FY2H23 推出;首款 400Gb/s 全线 速软件 定义网络、存储和网络安全的 DPU Bluefield-3 已于 FY1H23 推出;为 HPC (高性 能计算)及 AI 应用而设计的 Grace CPU Superchip10 积分 | 30 页 | 1.27 MB | 5 月前3
电子行业深度报告:DeepSeek推动模型平权,关注AI终端及算力领域推出重磅 AI 眼镜产品,该眼镜采用了 Ray-Ban 的经典设计,在外观上与普通太阳镜或光学镜相当。 参数方面,Ray-Ban Meta 搭载了高通 AR1 Gen1 芯片,内存和存储为 2GB+32GB,搭载了 1 个 12MP 的单摄像头,采用 5 阵列麦克风支持沉浸式录音,定制开放式扬声器进一步缓 解漏音、失真等问题。产品重约 48g,满电状态下可使用 4 小时,充电盒可提供额外 32 月 价格 299 美元 299 美元 SoC Wear 4100+ AR1 Gen1 MCU NXP MIMXRT685SF NXP MIMXRT685SF 存储器 512MB+4GB 2GB+32GB WiFi WiFi4 WiFi6 蓝牙 蓝牙 5.0 蓝牙 5.2 摄像头 双摄像头,5MP 单摄像头,12MP 重量 49.2g 48g 电池典型容量 175mAh 160mAh10 积分 | 23 页 | 2.65 MB | 5 月前3
电子行业:AI大模型需要什么样的硬件?-20240621-华泰证券-40页等。此类手机在 2023 年下半年开始进入市场。 硬件方面,我们看到:1)SoC:AI 引擎升级、NPU 算力提升,SoC 进一步升级确定性强; 2)存储:手机 RAM 升级至 24GB LPDDR5X,相较当前主流的 8GB LPDDR4X,成本提 升 300%;3)电源:电池/电源管理芯片升级,但弹性相对较小;4)光学:AI 推动屏下摄 像头应用取得突破。软件方面,新一代 AI 智能手机在系统架构和应用方面更加匹配个性化、 AI PC 推动存储规格升级,DRAM 最低 16GB、LPDDR 占比或逐渐提高。1)阿里通义千 问7B模型的原始大小是14.4GB,在联想的Lenovo AI now中运行的模型则压缩到了 4GB。 由此,AI大模型+电脑本身的缓存,大概只要 5-6G内存能运行起来,而 OS本身需占用 5-6GB, 故未来运存最低也需要 16GB 才能保证 PC 稳定运行。2)根据 Trendforce,Qualcomm M3 Pro Max Intel Lunar Lake NPU 算力 14TOPS 45TOPS 18TOPS 45TOPS 内存 最高 32GB + 1TB 最高 32GB + 1TB 最高 128GB+TB 尚未发布 应用 PPT 智能创作、文生图、文档总结、 智能问答、AI 识图、会议纪要、智 会分身、设备调优 GPT-4o,Copilot+PC10 积分 | 40 页 | 2.60 MB | 5 月前3
2025年超节点发展报告-华为&中国信通院超节点成为 AI 基础建设的共识。 超节点架构引领技术革新,重构计算能力边界。超节点架构依托高速互联技术,将大带宽的互联 范围,从单台服务器扩展到整机柜以及跨机柜的大规模集群,超节点域内可达百 GB/s 级通信带宽、 纳秒级时延、TB 级超大内存,实现集群能力跃迁。相较“服务器集群”,超节点代表的是弹性、池 化、开放的系统能力:既能以极致吞吐支撑万亿参数训练,也能以低时延满足企业级大规模推理的 一、超大带宽和超低时延互联 超节点能够提供大带宽、低时延的互联能力。传统计算架构中,卡间互联依赖 PCIe 或以太网, 跨服务器互联带宽多为 200~400Gb/s 且时延达数十微秒,在千亿参数模型训练的并行计算场景中, 频繁的 GB 级数据通信阻塞,导致计算等待通信,成为性能瓶颈。 超节点借助高效的互联协议打破传统架构限制,支持更大规模 AI 处理器的高效协同,实现更大 范围、更高流量的数据传输,从而突破系统性能。以昇腾 包数据传输及离 散随机访存通信效率。 超节点是 AI 计算节点通过高速互联协议组成更大内存空间的 AI 系统。超节点可以支持 32 及以 上 AI 芯片,AI 芯片到交换芯片带宽不小于 400GB/s,交换设备时延小于 500ns。超节点域内 AI 芯片支持内存统一编址,AI 芯片使用内存语义可直接访问其他 AI 芯片的内存。 在人工智能大模型训练和推理等前沿技术的算力需求驱动下,传统分布式集群在通信效率、资源20 积分 | 31 页 | 4.79 MB | 20 小时前3
2025中国RFID无源物联网行业产业白皮书-161页相关技术的研发及产业化工作,并在部分领域开始应用。 在已正式发布的国家标准中,很少涉及核心技术,具有自主知识产权的 RFID 相关标准较少。已发布的标准均集中 在应用层面,如 GB/T 20563-2006 动物射频识别代码结构、GB/T 22334-2008 动物射频识别技术准则、GB/T 29768- 2013 空口标准等。 时间 发展历程 详情 2002 年 组建成立全国信息技术标准化技术委员会自动识别与数据 采集技 Write:-21 鞋服、机场行李 FM13US02G 96 128 1664 Read:-19 Write:-17 支持 GB/T 29768-2013 高值物资管理、防伪溯源、 证件、交通 FM13UF02G 128 256 1536 Read:-19 Write:-17 支持 GB/T 29768-2013 物流、库管、车辆、人员管 理 上海 坤锐 Qstar-7U (S7U) 96 144 大容量用户区、 IATA 标准 资产管理 航空资产 Qstar-5R (S5R) 208 528 8K/16K/ 32K/64K Read:-17 Write:-12 最高达 64K 大容量 支持 GB/T 29768-2013 资产管理 无源传感 平头哥 羽阵 600 96 Read:-21 智慧零售、智慧物流、航空 包裹跟踪、库存管理等 羽阵 611 96 128 Read:-24 Write:-2020 积分 | 161 页 | 13.17 MB | 20 小时前3
电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页8 表1:GPT 参数和训练集规模快速增长 模型 发布时间 参数量 数据规模 Tokens GPT 2017.6 1.17 亿 5GB 1.17 亿 GPT2 2019.2 小:1.24 亿 中:3.55 亿 大:7.74 亿 超大:15 亿 40GB 15 亿 T5 2019 小:0.6 亿 基础:2.2 亿 大:7.7 亿 TB-3B:30 亿 T5-11B:110 亿10 积分 | 25 页 | 2.20 MB | 5 月前3
共 24 条
- 1
- 2
- 3
