电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 | 2023年05月31日 超 配 电子 AI+系列专题报告 边缘 AI:大语言模型的终端部署,推动新一轮终端需求 核心观点 行业研究·行业专题 电子 超配·维持评级 证券分析师:胡剑 证券分析师:胡慧 021-60893306 021-60871321 hujian1@guosen.com.cn huhui2@guosen 特征是通过海量数据,无需标注自监督学习,训练一个基础大模型,并在各 领域将其专业化。据相关论文,当模型的参数量大于某阈值,会展现出类似 推理、无监督学习等未曾出现的能力,这种现象被称为“涌现”,因此目前 大语言模型参数均在十亿量级以上。同时,Deepmind 研究表明,模型参数的 上涨需要配合等比例上升的优质数据集来达到最佳训练效果。因此,大模型 参数在十亿级以上发展并受限于优质数据集的增速是 AI 发展的必然趋势。 8GHz 的占比 36%,价格在 1000 美金以上的占比 13%,即旗舰机型占比较低,随着 AI 大模 型在边缘端落地,有望推动新一轮换机潮。 以大语言模型为核心,以语言为接口,控制多 AI 模型系统,构建“贾维斯” 式智能管家。我们认为大语言模型不仅可以实现对话、创意,未来也有望作 为众多复杂 AI 模型的控制中心,同时也是接受用户指令的交互窗口,实现 《钢铁侠》电影中“贾维斯”式综合智能管家。2310 积分 | 25 页 | 2.20 MB | 5 月前3
DeepSeek大模型及其企业应用实践大模型可以从大量的数据中学习, 并利用学到的知识和模式来提供 更精准的答案和预测。这使得它 们在解决复杂问题和应对新的场 景时表现更加出色 学习能力强 大模型可以生成更自然、更流利 的语言,减少了生成输出时呈现 的错误或令人困惑的问题 语言生成能力 学习到的知识和能力可以在不同 的任务和领域中迁移和应用。这 意味着一次训练就可以将模型应 用于多种任务,无需重新训练 可迁移性高 1.2 大模型的发展历程 ,预训练大模型包含了预训练大语言模型(可以简称为“大语言模 型”),预训练大语言模型的典型代表包括OpenAI的GPT和百度的文心ERNIE,ChatGPT是基于GPT开发的大模型产品, 文心一言是基于文心ERNIE开发的大模型产品 人工智能 机器学习 深度学习 深度学习模型 预训练模型 深度学习 预训练大模型 预训练 大语言模型 预训练大语言模型 GPT 文心ERNIE 文心ERNIE ... ChatGPT 文心一言 1.4 大模型的分类 语言大模型 视觉大模型 多模态大模型 是指在自然语言处理(Natural Language Processing,NLP)领域中的一类大模型,通常 用于处理文本数据和理解自然语言。这类大模型 的主要特点是它们在大规模语料库上进行了训练, 以学习自然语言的各种语法、语义和语境规则。 代表性产品包括GPT系列(OpenAI)、Bard10 积分 | 147 页 | 16.82 MB | 5 月前3
大模型时代的AI教育:思考与实践2024智能(Intelligence):以模型为核心,是对真实世界的模拟和解释 人类智能 • 抽象(语言):概念,数字,理念 • 逻辑(理性):归纳,演绎,类比 • 计算(模型):科学方法 • 基于观测经验,发现规律 • MIT:一切问题都是模型问题 • 模型:一个映射,一个函数 科学范式 • 用语言逻辑方法获取理论模型:模糊 • 用解析数学方法获取数学模型:精确 • 用计算数学方法获取数据模型:近似 Diffusion、transformer ◼ 从NLU+NLG到LLM(大语言模型) 1. 语言逻辑和数据集蕴含了人类的认知智能 2. LLM是人类的认知智能的实现方式之一 3. LLM的原理很简单;工程很复杂;效果很神奇 01 对AI技术的认知:大模型的能力边界 用人工神经网络获取网络模型:深度学习-Transformer模型-大语言模型 大语言模型的核心原理:数据化-语义化-NTP(Next Token Token Prediction) 大语言模型的三层能力:语言能力-知识能力-推理能力 1. 语言能力:一本正经地说话,语言顺畅,GPT时达到 • NLG+NLU:语言理解、语言表达(包括温度和情商) • 人类语言、代码语言、XX语言 2. 知识能力:海量公开知识,言之有物,GPT-2时达到 • 顺带学习(基座模型):文字中蕴含了知识 • 压缩:幻觉 • 遗忘:微调(迁移学习),尤其是RLHF10 积分 | 36 页 | 4.04 MB | 5 月前3
电子AI+系列专题:复盘英伟达的AI发展之路S0980522090001 l GPU 是人工智能时代下满足深度学习大量计算需求的核心 AI 芯片。 过去五年,大型语言模型的参数规模以指数级增长;从 2018 年起, OpenAI 开始发布生成式预训练语言模型 GPT 以来, GPT 更新换代持续提升模型 及参数规 模; 2022 年 12 月, OpenAI 发布基于 GPT-3.5 的聊天机器人模型 ChatGPT 3 月,英伟达在 GTC 大会上推出 4 个针对各种生成式 AI 应用程序进行优化的推理平台,其中发布带有双 GPU NVLink 的 H100 NVL 加速计算卡, 以支持 ChatGPT 类大型语言模型推理。与适用于 GPT-3 处理的 HGX A100 相比,配备四对 H100 与双 GPU NVLink 的标准服 务器的速度最高可达 10 倍。 l 计算与网络事业部收入占比提升,数据中心超过游戏成为收入主要来源。 突出需求,高并行度的深度学习算法在视觉、语音和自然语言 处理等领域上的广 泛应用使得算力需求呈现指数级增长。 据 Cisco 数据,全球数据中心负载任务量预计由 2016 年的 241.5 万个上升至 2021 年 的 566.7 万个,对应 CAGR 达 18.60% ;其中,云数据中心负载任务量 CAGR 预计达 22% 。 l 以模型中的参数数量衡量,大型语言模型的参数 在过去五年中以指数级增长。随着参数量和训练10 积分 | 30 页 | 1.27 MB | 5 月前3
电子行业:AI大模型需要什么样的硬件?-20240621-华泰证券-40页......................................................................................... 13 编程:AI 协助编程开发,提高开发效率与质量 .................................................................................. 摘要:大模型能力提升不断解锁新的应用场景 过去一年,大模型能力的发展速度超出我们预期。以衡量 LLM 的常用的多语言理解均值评 测标准(MMLU)为例,2021 年底全球最先进大模型的 MMLU 5-shot 得分刚达到 60%, 2022 年底超过 70%,而 2023 年底已提升至超过 85%。在语言能力之外,AI 大模型的多模 态能力也快速提升。2023 年初,主流闭源大模型通常为纯文本的 LLM。2023 化方式来处理和回复用户输入,可以模拟人类对话,通过文字或语音与用户进行实时交互。 2010 年代,随着 NLP 等技术的发展,Chatbot 已经在客服、营销、企业信息服务等领域得 到了广泛应用。然而,由于语言理解及生成能力有限,因此 Chatbot 的落地范围局限在 B 端特定服务型场景,并未诞生具有广泛影响力的 C 端产品。2022 年 12 月,ChatGPT 在文 本生成、代码生成与修改、多轮对话等领域展现了大幅超越过去10 积分 | 40 页 | 2.60 MB | 5 月前3
未来网络发展大会:2025光电融合网络技术与产业应用白皮书层控制的深度协同,构 建的统一网络架构体系。其核心是将传统分离的光传输系统 (DWDM/OTN)与分组交换设备(路由器/交换机)在物理设备层、 协议层和网络管理层实现三重融合,形成下一代确定性、可编程、广 覆盖的智能承载网络。光电融合网络技术具备如下三大关键特征: 1. “IP+光”协同引擎 采用高速相干彩光模块(如 400G/800G ZR+、1.6T 模块)作为 IP 层直连接口,实 活部署于核心、汇聚、边缘等多种应用场景,满足智算中心互联、骨 干网演进、数据中心互联等需求。 5.支持标准化协议与可编程能力 全面兼容 NETCONF、PCEP、Telemetry、BGP-LS 等南向接口协 议,并支持 SR/SRv6、VPN、安全计算等网络能力开放,为构建自动 化、可编程网络提供基础支撑。 光电融合技术体系依赖三个方面的发展:光模块与白盒设备的发 展、设备操作系统的发展、统一控制器的发展。 设备的精细控制,扩展光转发逻辑能力,具备一定可编程性,但适用 范围有限。 NETCONF + YANG:成为现代网络自动化的主流组合。YANG 定义数据模型、NETCONF 实现配置交互,两者结合可支持跨厂商设 备的统一配置和状态同步,替代传统 CLI/SNMP,实现从“人工脚本” 向“结构化交互”的转型。 如今,业界更多转向以 PCEP + BGP-LS、NETCONF + YANG 等 更轻量、模块化、可编程的协议体系,来实现20 积分 | 95 页 | 2.94 MB | 1 天前3
清华大学:DeepSeek赋能家庭教育、生活技能(自理) 、身心健康(情绪管理) 。 3. 系统内容 显性教育 学科辅导 、技能训练(编程 / 乐器) 、规则制定(作息时间) 。 隐性教育 家庭文化(餐桌礼仪) 、情感联结(亲子共读) 、价值观渗透(家长以身作则) 。 4. 系统方法 沟通方式 对话与倾听(非暴力沟通) 、非语言互动(拥抱鼓励) 。 激励与约束 正向强化(积分奖励) 、负向反馈(暂停特权) 。 参与模式 共同活动(家庭运动日) 直接讲解数学解题方法 提供分步拆解工具 避免亲子冲突, 培养自主 解题能力 分步拆解模式(案例 1 ) : 通过设变量 、列方程 、 推导等步骤引导思考 修改作文语法错误 启发表达优化思维 提升语言应用能力而非机 械纠错 智能润色系统(案例 2 ) : 分析语法错误, 提 供 高级表达替代方案 单向讲述历史事件 构建沉浸式学习体验 增强记忆深度与兴趣 时空穿越对话(案例 3 ) : 解题 2. 角色混淆 父亲用 DeepSeek 润色系统批改作文 后, 直接要求孩子照搬修改建议, 未 解释 " 月华如水 " 比 " 月亮很亮 " 好 在何 处 孩子丧失语言鉴赏能力 ,修改过程沦为 复制粘贴 ,作文分数提升但创造力未实 质进步 l 家长需先理解 AI 建议的核心价 值 l 采用 "A I 建议 + 家长解读 " 双轨10 积分 | 89 页 | 9.10 MB | 5 月前3
华为:鲲鹏原生开发技术白皮书(6.0修订版)实现 1 套代码 +1 条流水线构建多平台版本,效率更高、性能更优。 图 2-1 核心技术理念 代 码 开 发 阶 段 代码开发 代码优化 编译 调试 调优 • 场景化 SDK • 启发式编程 • BoostKit 应用使能 • 鲲鹏亲和分析 • 毕昇编译器 • 毕昇 JDK • GCC for openEuler • 鲲鹏调试器 • 系统性能分析 • Java 性能分析 • 能力介绍 鲲鹏原生开发技术白皮书 / 06 鲲鹏原生开发能力介绍 3.1 代码开发阶段 图 3-1 代码开发阶段 代码开发 代码优化 编译 调试 调优 • 场景化 SDK • 启发式编程 • BoostKit 应用使能 • 鲲鹏亲和分析 • 毕昇编译器 • 毕昇 JDK • GCC for openEuler • 鲲鹏调试器 • 系统性能分析 • Java 性能分析 • • 系统诊断 通过鲲鹏 DevKit/BoostKit 开发代码:充分应用鲲鹏架构优势,性能更优 3.1.1.2 应用开发工具 应用开发工具支持创建鲲鹏应用工程,支持 C/C++ 开发语言,编码时能够自动匹配鲲鹏加速库函数字典、智能提示、 高亮、联想字典中可以替换的库和函数。支持以下功能: » 鲲鹏应用工程:只需要在创建鲲鹏应用工程页面进行简单的输入和选择,便可以实现自动化构建鲲鹏应用工程,10 积分 | 112 页 | 17.64 MB | 5 月前3
2025年智启未来·险见新机-人保寿险大模型探索及实践(33页 PPT)GPT-4 的千分之一。 自主试错优化 R1 采用纯强化学习( RL )训练,跳过 SFT ,让模型通过自主试错和优化来学习, 减少对标注数据依赖,降低训练复杂度。 在实际应用中, R1 在数学和编程任务中表现优于 OpenAI o1 。 自适应调整 极简单的奖励规则,让大模型自我博弈、不断顿悟与自适应调整,实现深度思 考。比如, R1 会深入思考多种解题路径,评估优劣后选择数学难题的最优解, (深度推理) 小模型 (实时响应) 大小模型协同方案 复杂任务路由 结果反馈 用户请求 17 人保大模型应用实践 - AI 保宝 近两年,人保寿险建设“ AI 保宝”大模型平台项目,引进生成式大语言模型,面向保司内勤、外勤两大群体,切实解决在办公 保司 内勤 保司 外勤 知识问答、合同审核对比、 文案 / 海报生成等 坐席话术推荐、产品 咨询服务等 产品条款、投保规则、保单 ,实现课程封面图的定制化设计和生成。 配的全语音个性化交互学习新体验 实施成效 基础课程(预习、 训练、 通关) 课程推荐 智能推荐 (规划中) VR/AR (规划中) 语言流畅度分析 情感分析 声纹识别 (规划中) VR/AR 场 景 训 练(规划中) 语义理解 多路径场景 其他算法 模型 智能训辅 数据统计 人脸识别 智能打分10 积分 | 33 页 | 2.82 MB | 1 天前3
电子行业深度报告:DeepSeek推动模型平权,关注AI终端及算力领域不分伯仲,训练成本仅约为 558 万美元。1 月 20 日,DeepSeek 开源 R1 模型,后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下, 极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 图 1:DeepSeek R1 性能比肩 OpenAI o1 数据来源:DeepSeek公众号,东莞证券研究所 同时,DeepSeek-R1 海外头部企业积极跟进。2 月 1 日,OpenAI 官宣 o3 mini 和 o3 mini high 两大版本上 线 ChatGPT,其中 o3 mini 的复杂推理、对话能力显著提升,在科学、数学、编程等领 域性能优秀,且保持了 o1 mini 的低成本和低延迟,并可与联网搜索功能搭配使用。谷 歌则在 2 月 6 日推出 Gemini 2.0 家族,包括 Gemini 2.0 Pro 实验版本、Gemini reasoning、Grok 3 mini reasoning。其中 Grok 3 在数学、科学、 编程等领域的性能进一步提升,表现好于 Gemini 2 Pro、DeepSeek V3、Claude 3.5 Sonnet 及 GPT-4o 等模型;而推理模型 Grok 3 reasoning Beta 在数学、科学、编程等表现上 亦好于 OpenAI o3 mini(high)、DeepSeek R1、Gemini10 积分 | 23 页 | 2.65 MB | 5 月前3
共 52 条
- 1
- 2
- 3
- 4
- 5
- 6
