电子行业深度报告:DeepSeek推动模型平权,关注AI终端及算力领域chenweiguang@dgzq.com.cn 电子行业指数走势 资料来源:东莞证券研究所,Wind 相关报告 投资要点: DeepSeek推动模型平权,关注AI终端及算力领域。2024年12月,DeepSeek V3 首 个 版 本 上 线 , 在 多 项 评 测 成 绩 超 越 了 Qwen2.5-72B 和 Llama-3.1-405B 等 开 源 模 型 , 并 在 性 能 上 和 GPT-4o 以 及 Claude-3 算力需求仍将加大。近期微软、亚马逊、谷歌、Meta披露最新业绩,四 大科技巨头Q4资本开支合计同比大幅增长77%,主要支持云计算、AI等 基础设施建设。同时后续资本开支指引积极,海外CSP并未因DeepSeek V3 及R1模型推出而放缓资本开支投入的步伐,反而加大相关投入,而国内 CSP为了保持竞争优势亦有望跟进,增加AI领域相关投入。同时AI应用 场景加速普及,也将反哺算力需求。 风险提示:终端需求不 ......14 图 27 :雷鸟创新 V3 拍摄眼镜 .......................................................... 15 图 28 :雷鸟创新 AI 下棋实时指导功能 .................................................. 15 图 29 :雷鸟创新 V3 支持边充边用 ............10 积分 | 23 页 | 2.65 MB | 10 月前3
电子AI+系列专题:DeepSeek重塑开源大模型生态,AI应用爆发持续推升算力需求公司成立于 2023 年 7 月,是一家致力 于实现 通用人工智能 (AGI) 的创新型科技公司。 2024 年 12 月, DeepSeek-V3 发布,性能对齐海外领军闭源模型。据官方技术论文披露, V3 模型的总训练成本 为 557.6 万美元, 对比 GPT-4o 等模型的训练成本约为 1 亿美元。 2025 年 1 月, DeepSeek-R1 发布,性能对标 OpenAI-o1 正式版。在数学、代码、 英伟达、亚马逊等已先后上线部署支持用户访问 DeepSeek-R1 模型。 2 月 1 日,华为云官方发布消息,硅基流动和华为 云团队联合首发并上线基于华为云昇腾云服务 的 DeepSeekR1/V3 推理服务。 l DeepSeek 通过 MLA 和 DeepSeekMoE 实现高效的推理和低成本训练,构建 DualPipe 算法和混合精度训练优化计算与通信负载;通过 ( 分阶段 ) 强化学习实现 里 Qwen2.5-72B 、 Meta 的 Llama-3.1-405B 等其他开源 模型,并 逼近 GPT-4o 、 Claude-3.5-Sonnet 等顶尖闭源模型。据官方技术论文披露, V3 模型的总训练成本为 557.6 万美元,对比 GPT-4o 等模型的训练成本 约为 1 亿美元。 l 2025 年 1 月, DeepSeek-R1 发布,性能对标 OpenAI-o1 正式版。10 积分 | 38 页 | 1.95 MB | 10 月前3
人工智能机器人的崛起研究报告:物理AI时代开启Temi V3案例研究 Temi提供机器⼈即服务(RaaS)解决⽅案。Temi V3是他们最新的⾃主个⼈AI助⼿ 机器⼈(内置Alexa)。Temi V3⾝⾼1⽶,重12公⽄,移动速度为1⽶/秒。单次充电 可⼯作⻓达8⼩时,并在需要时通过空中更新⾃⼰的软件63。 内置的⼈⼯智能系统使Temi V3能够⾃学习周围环境,了解⾃⼰所在的位置、所看到的内容 以及即将前往的位置63。Temi V3可以⾃主导航,精度达到5厘⽶,或者跟随⼈类。 V3可以⾃主导航,精度达到5厘⽶,或者跟随⼈类。 该机器⼈可⽤于各种场景。移动视频通话功能使其成为远程医疗的理想选择。在办公 室,Temi V3可以将咖啡或⻝物送到办公桌或会议室。在餐厅,Temi V3可以作为主 ⼈和服务员迎接客⼈,为客⼈安排座位并根据语⾳或触摸屏接受点菜。 62 Pudu Robotics 63 Temi Robot © 2024 花旗集团 46 城市GPS:全球视⻆与解决⽅案 2024年12⽉0 积分 | 82 页 | 5.53 MB | 10 月前3
清华大学:DeepSeek赋能家庭教育https://chat.deepseek.com/ https://build.nvidia.com/d eepseek-ai/deepseek-r1 特性 基础模型 ( DeepSeek V3) 深度思考模型 ( DeepSeek R1) 联网模型 适用教育场景 快速解答基础知识点 、辅助日常 作业 、提供简单概念解释 深入解析复杂概念 、培养批判性思 维 、探讨开放性问题 日常作业辅导和基础知识巩固 → 基础模型 ( DeepSeek V3) • 概念深度理解和思维能力培养 → 深度思考模型 ( DeepSeek R1) • 探究性学习项目和最新知识获取 → 联网模型 DeepSeek 的三种模式对 比 家庭教育交互式提示框架 聊法: 如何与 AI 进 行有效沟通 ( R1 ) 词法: 如何设计 和 输入具体的提示词 (V3) • 避免直接提问: 不要让 AI10 积分 | 89 页 | 9.10 MB | 10 月前3
2025年智启未来·险见新机-人保寿险大模型探索及实践(33页 PPT)模型性能。 任务精准分配,大幅降低能耗 依靠稀疏混合专家模型( MoE )架构,仅需激活 5%-10% 的参数,将任务精准 地分 配给最相关的“专家模块” ,计算量和能耗大幅降低,如 V3 的训练成本仅为 GPT-4 的千分之一。 自主试错优化 R1 采用纯强化学习( RL )训练,跳过 SFT ,让模型通过自主试错和优化来学习, 减少对标注数据依赖,降低训练复杂度。 在实际应用中,10 积分 | 33 页 | 2.82 MB | 4 月前3
新华网&腾讯云:2025年国产数字化升级标杆实践报告服务68个省级单位、1000多个业务系统,稳定支撑粤系列应用、财政、医保、人社、自然资源等核心业务。 TencentOS Server操作系统支持主流国产芯片,具备CentOS原地替换能力,其V3版本专为数据库与AI场景优化,已在千万级节 点部署。新华通讯社部署TencentOS完成3000+台服务器原地替换,首次迁移成功率达95%,按计划迁移成功率达100%,核心平 台运行稳定。 一 腾讯云计算加速套件 TACO KiT 覆盖文生文、多模态生 成、多模态理解等多场 景。 基于腾讯云多年GPU训 练性能调优经验,协助客 户解决性能瓶颈。 训练加速 推理加速 模型层 DeepSeek V3/R1 满 血 版 Qwen 等主流模型 算力 管理 qGPU虚拟化 国产可信 TencentOS Server 通过了安全可靠测评(2024年第1号) 符合《操作系统政府采购需求标准(2023年版)》要求20 积分 | 45 页 | 20.65 MB | 4 月前3
DeepSeek如何加速金融业数字化转型?r1 4 16 deepseek- r1-32B 1.5 6 gpt-o1 109.5 438 gpt-o3-mini 8.1 32.1 生成模型 deepseek- V3 2 8 gpt-4o 18.25 73 gpt-4o-mini 1.1 4.4 4.2 DeepSeek 核心优势 ?—— 低成本,高性价 比 Ā 表 23ÿ DeepSeek 及 GPT 电力、算力虽是大模型本身发展的核心,或因“杰文斯悖论”激发需求增长,但作为基础设施,或 并非金 融机构 AI 竞争的核心壁垒 ; 3 ) DeepSeek 的高性能凸显高质量数据的重要性。如 V3 模型训练时使用了 14.8 万亿涵盖多种领域 和语言的 token ;R1 通过精心筛选和处理的冷启动数据提升了模型性能和可读性。 4) 展望未来, “ AI+ 金融”竞争力将取决于能10 积分 | 77 页 | 16.76 MB | 10 月前3
DeepSeek大模型及其企业应用实践为开发者提供高效能、低成本的多品类 AI 模型服务,开发 者可直接调用平台 API,无需自建服务,大大节省了搭建 和维护模型服务的时间和成本 与华为云团队合作,联合首发并上线基于华为云昇腾云服 务的 DeepSeek R1/V3 推理服务,支持部署的 DeepSeek 模型能达到与全球高端 GPU 部署模型持平的 效果,并提供稳定的生产级服务能力。还与智谱 AI 等厂商 合作模型广场,客户可一键调用超百个垂直领域模型 规模硬件上运行满血版 DeepSeek-R1 被认为几乎不可能 n 此次KTransformers项目更新带来重大突破,支持在24G显存(4090D)的设备上本地运行 DeepSeek- R1、V3的671B满血版。其预处理速度最高可达286 tokens/s,推理生成速度最高能达到14 tokens/s。 甚至有开发者借助这一优化技术,在3090显卡和200GB内存的配置下,使Q2_K_XL模型的推理速度达到10 积分 | 147 页 | 16.82 MB | 10 月前3
2025年超节点发展报告-华为&中国信通院列并行 (CP)、专家并行(EP)等策略时,通信链路易达瓶颈(卡间带宽通常低于 100GB/s),且并行 维度被限制在八卡以内。以大模型训练为例,当前主流的 MoE 模型(如 DeepSeek V3、Qwen3 等) 都采用了 64 卡 EP 并行的方式,传统服务器形态,跨机通信存在瓶颈,优化困难,超节点的大带宽 能够提升通信效率,缩短卡间不可掩盖的通信,降低模型性能调优难度,快速提升 MFU。20 积分 | 31 页 | 4.79 MB | 4 月前3
Deepseek在药企研发领域的本地化部署和应用场景万美元,而 Meta 的 Lama 3.14058 则 需要 6000 万美元以上,而后者使用的 计算 资源是前者的 11 倍。 A 为你提供母语级高精翻译 免费体验》 ind, V3,which e that it Ipwards China's cheap.OenALmodel DeepSock thrils sclentst with the model10 积分 | 33 页 | 2.29 MB | 10 月前3
共 11 条
- 1
- 2
