电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 | 2023年05月31日 超 配 电子 AI+系列专题报告 边缘 AI:大语言模型的终端部署,推动新一轮终端需求 核心观点 行业研究·行业专题 电子 超配·维持评级 证券分析师:胡剑 证券分析师:胡慧 021-60893306 021-60871321 hujian1@guosen.com.cn huhui2@guosen 特征是通过海量数据,无需标注自监督学习,训练一个基础大模型,并在各 领域将其专业化。据相关论文,当模型的参数量大于某阈值,会展现出类似 推理、无监督学习等未曾出现的能力,这种现象被称为“涌现”,因此目前 大语言模型参数均在十亿量级以上。同时,Deepmind 研究表明,模型参数的 上涨需要配合等比例上升的优质数据集来达到最佳训练效果。因此,大模型 参数在十亿级以上发展并受限于优质数据集的增速是 AI 发展的必然趋势。 8GHz 的占比 36%,价格在 1000 美金以上的占比 13%,即旗舰机型占比较低,随着 AI 大模 型在边缘端落地,有望推动新一轮换机潮。 以大语言模型为核心,以语言为接口,控制多 AI 模型系统,构建“贾维斯” 式智能管家。我们认为大语言模型不仅可以实现对话、创意,未来也有望作 为众多复杂 AI 模型的控制中心,同时也是接受用户指令的交互窗口,实现 《钢铁侠》电影中“贾维斯”式综合智能管家。2310 积分 | 25 页 | 2.20 MB | 5 月前3
DeepSeek大模型及其企业应用实践大模型可以从大量的数据中学习, 并利用学到的知识和模式来提供 更精准的答案和预测。这使得它 们在解决复杂问题和应对新的场 景时表现更加出色 学习能力强 大模型可以生成更自然、更流利 的语言,减少了生成输出时呈现 的错误或令人困惑的问题 语言生成能力 学习到的知识和能力可以在不同 的任务和领域中迁移和应用。这 意味着一次训练就可以将模型应 用于多种任务,无需重新训练 可迁移性高 1.2 大模型的发展历程 ,预训练大模型包含了预训练大语言模型(可以简称为“大语言模 型”),预训练大语言模型的典型代表包括OpenAI的GPT和百度的文心ERNIE,ChatGPT是基于GPT开发的大模型产品, 文心一言是基于文心ERNIE开发的大模型产品 人工智能 机器学习 深度学习 深度学习模型 预训练模型 深度学习 预训练大模型 预训练 大语言模型 预训练大语言模型 GPT 文心ERNIE 文心ERNIE ... ChatGPT 文心一言 1.4 大模型的分类 语言大模型 视觉大模型 多模态大模型 是指在自然语言处理(Natural Language Processing,NLP)领域中的一类大模型,通常 用于处理文本数据和理解自然语言。这类大模型 的主要特点是它们在大规模语料库上进行了训练, 以学习自然语言的各种语法、语义和语境规则。 代表性产品包括GPT系列(OpenAI)、Bard10 积分 | 147 页 | 16.82 MB | 5 月前3
大模型时代的AI教育:思考与实践2024智能(Intelligence):以模型为核心,是对真实世界的模拟和解释 人类智能 • 抽象(语言):概念,数字,理念 • 逻辑(理性):归纳,演绎,类比 • 计算(模型):科学方法 • 基于观测经验,发现规律 • MIT:一切问题都是模型问题 • 模型:一个映射,一个函数 科学范式 • 用语言逻辑方法获取理论模型:模糊 • 用解析数学方法获取数学模型:精确 • 用计算数学方法获取数据模型:近似 Diffusion、transformer ◼ 从NLU+NLG到LLM(大语言模型) 1. 语言逻辑和数据集蕴含了人类的认知智能 2. LLM是人类的认知智能的实现方式之一 3. LLM的原理很简单;工程很复杂;效果很神奇 01 对AI技术的认知:大模型的能力边界 用人工神经网络获取网络模型:深度学习-Transformer模型-大语言模型 大语言模型的核心原理:数据化-语义化-NTP(Next Token Token Prediction) 大语言模型的三层能力:语言能力-知识能力-推理能力 1. 语言能力:一本正经地说话,语言顺畅,GPT时达到 • NLG+NLU:语言理解、语言表达(包括温度和情商) • 人类语言、代码语言、XX语言 2. 知识能力:海量公开知识,言之有物,GPT-2时达到 • 顺带学习(基座模型):文字中蕴含了知识 • 压缩:幻觉 • 遗忘:微调(迁移学习),尤其是RLHF10 积分 | 36 页 | 4.04 MB | 5 月前3
清华大学:DeepSeek赋能家庭教育、技能训练(编程 / 乐器) 、规则制定(作息时间) 。 隐性教育 家庭文化(餐桌礼仪) 、情感联结(亲子共读) 、价值观渗透(家长以身作则) 。 4. 系统方法 沟通方式 对话与倾听(非暴力沟通) 、非语言互动(拥抱鼓励) 。 激励与约束 正向强化(积分奖励) 、负向反馈(暂停特权) 。 参与模式 共同活动(家庭运动日) 、自主探索(提供实验工具) 。 5. 环境与资源 物理环境 学习角布局 、书籍 直接讲解数学解题方法 提供分步拆解工具 避免亲子冲突, 培养自主 解题能力 分步拆解模式(案例 1 ) : 通过设变量 、列方程 、 推导等步骤引导思考 修改作文语法错误 启发表达优化思维 提升语言应用能力而非机 械纠错 智能润色系统(案例 2 ) : 分析语法错误, 提 供 高级表达替代方案 单向讲述历史事件 构建沉浸式学习体验 增强记忆深度与兴趣 时空穿越对话(案例 3 ) : 解题 2. 角色混淆 父亲用 DeepSeek 润色系统批改作文 后, 直接要求孩子照搬修改建议, 未 解释 " 月华如水 " 比 " 月亮很亮 " 好 在何 处 孩子丧失语言鉴赏能力 ,修改过程沦为 复制粘贴 ,作文分数提升但创造力未实 质进步 l 家长需先理解 AI 建议的核心价 值 l 采用 "A I 建议 + 家长解读 " 双轨10 积分 | 89 页 | 9.10 MB | 5 月前3
AIGC+教育行业报告2024www.iresearch.com.cn 教育 成长 中观:语言的发展及其教育影响 自然语言—数字语言—机器语言,代表着教育发生、成长及其现代突变 语言是人类认识世界、改造世界的基本工具。自然语言的出现,从词语到概念的演化,抽象程度的提高,使得教育得以发生,知识、 概念、经验得以传授和传承;数字语言的出现,生活和学习中各类数字工具的应用,表示人类对世界的认识和规律把握的能力增强, 强, 人类认知和沟通的障碍降低,知识经验传授和传承的范围进一步扩大;机器语言的出现,人类把数字语言体系外化给机器,并演变 为各类模型、算法,由此人类认识世界、改造世界的能力通过机器得到了放大、倍增和质变。大语言模型作为最新的技术突变成果, 在发现、认识、运用规律上相较于人类有着明显的优势,人造工具突破人类认知和能力的边界,推动教育内容和评价、教学方法的 革新。 来源:原教育部部长陈宝生《从Cha 界 点 具 体 化 为 概 念 数字语言 自然语言 机器语言 教育 发生 从词语到概念,抽象程度的提高,使得教育得 以发生,知识、概念、经验得以传授和传承 ➢ 长度单位:米、厘米、毫米等 ➢ 质量单位:千克、克、毫克等 ➢ 时间单位:秒、分钟、小时等 ➢ 温度单位:摄氏度、华氏度、开尔文等 数字计量与统计 ➢ 电话号码:特定格式的数字语言,拨号后通话 ➢ 日期与时间:电子日历和时钟以数字表示10 积分 | 55 页 | 3.32 MB | 5 月前3
电子行业深度报告:AI系列深度,AI+降本增效拓宽应用,硬件端落地场景丰富-20230712-东吴证券-28页将输入内容扩展到 2.5 万字内的文字和图像,较 ChatGPT 能够处理更复杂、更细微的问题。最新版的 GPT-4 在 ChatGPT 的 GPT- 3.5 基础上主要提升了语言模型方面的能力,并添加了多模态功能,在 不同语言情景和内部对抗性真实性评估的表现都显著优于 GPT-3.5,在 各种专业和学术基准上已经表现出人类水平。智能终端接入人工智能大 模型的趋势是明确的,预计很快在下游应用层面将出现 ............................................................................. 16 图 34: Infinix 推出多语言对话能力 AI 向导 ................................................................................. 16 图 35: 是一个大型的多模态模型,相比上一代 ChatGPT 新增了图像功能,同时具备 更精准的语言理解能力。GPT 的升级背后是 OpenAI 的大语言模型的进一步演进,同时 带动下游应用的拓展,涌现出新一批应用场景。 1.1. GPT 迭代更新,人工智能掀起科技潮 GPT 升级至四代,模型能力高速提升。ChatGPT 是由 OpenAI 开发的自然语言生成 模型,采用 Transformer 神经网络架构(又称10 积分 | 28 页 | 2.68 MB | 5 月前3
AI医疗专题:从AIGC角度看医药产业图谱5 自然语言处理赋予了AI理解能力和创作能力: NLP有2个核心的任务:分别是1)自然语言理解—NLU;2)自然语言生成—NLG。 o 自然语言理解:希望机器可以像人一样,具备正常人的语言理解能力。需要涉及:1)语言的多样性;2)语言的歧义性;3) 语言的鲁棒性;4)语言的知识依赖;5)语言的上下文。 o 自然语言生成:为了跨越人类和机器之间的沟通鸿沟,将非语言格式的数据转换成人类可以理解的语言格式,如文章、报告 人类可以理解的语言格式,如文章、报告 等。需要涉及:1)内容确定;2)文本结构;3)句子聚合;4)语法化;5)参考表达式生成;6)语言实现。 AIGC(AI Generated Content) 主要突出的是创造性生产,依赖于多模型的技术融合 专业生产 用户生产 AIGC 互联网形 态 Web 1 Web 2 Web 3 与元宇宙 内容生产 方式 PGC( 将成为智能时代的全新信息系统入口 7 大语言模型(LLM) 是指使用大量文本数据训练的深度学习模型,可以用于生成自然语言文本或理解语言文本的含义。 大语言模型可以处理多种自然语言任务,基于大语言模型开发的ChatGPT或能够为用户提供信息系统入口/界面,同时可以管理计 算资源并支撑应用开发。 ChatGPT作为一种大语言模型,可以成为信息系统入口的界面 桌面和移动应用10 积分 | 50 页 | 5.74 MB | 5 月前3
从DEEPSEEK的崛起看AI医疗发展方向及投资机会7 自然语言处理赋予了AI理解能力和创作能力: NLP有2个核心的任务:分别是1)自然语言理解—NLU;2)自然语言生成—NLG。 自然语言理解:希望机器可以像人一样,具备正常人的语言理解能力。需要涉及:1)语言的多样性;2)语言的歧义性;3) 语言的鲁棒性;4)语言的知识依赖;5)语言的上下文。 自然语言生成:为了跨越人类和机器之间的沟通鸿沟,将非语言格式的数据转换成人类可以理解的语言格式,如文章、报告等 人类可以理解的语言格式,如文章、报告等 。需要涉及:1)内容确定;2)文本结构;3)句子聚合;4)语法化;5)参考表达式生成;6)语言实现。 AIGC(AI Generated Content) 主要突出的是创造性生产,依赖于多模型的技术融合 专业生产 用户生产 AIGC 互联网形 态 Web 1 Web 2 Web 3 与元宇宙 内容生产 方式 PGC( 整合全外显子测序数据和影像组学特征,生成个体化用药敏感性预测模型,显著 提高了病理完全缓解率 DEEPSEEK通过多模型技术融合,在医疗领域展现出显著的应用潜力。其核心技术依托于深度学习和自然语言处理,致力于开 发高效的智能工具,优化医疗工作流程。通过海量数据分析与挖掘,DEEPSEEK能够为医疗行业提供精准的智能决策支持。这 种技术不仅增强了医疗从业者的工作效率,还在一定程度上提高了患者的安全性和医疗质量。10 积分 | 62 页 | 6.64 MB | 5 月前3
2025面向工程审计行业的DeepSeek大模型应用指南-南京审计大学工程审计学院(45页 WORD)是一款先进的通用大语言模型,具备多模态理解能力,旨在为 广泛的应用场景提供智能化支持。 DeepSeek-R1 是一个推理大语言模型,旨在提供高效的自然语言理解、任务 规划与交互能力,擅长处理复杂、需要多步思考的问题, 适合做深度推理、解决 代码问题或复杂数学问题等。 2.1 基本原理 DeepSeek 大语言模型经过大量文本数据的学习,能够理解人类的语言,并 根据问题或指令生成相应的回答。 M o M o 输 出 输 出 Deco 2 4 3 2 2.2 基本功能 DeepSeek 的功能主要包括智能问答、内容生成、 数据分析与可视化、代码 辅 助、多语言支持等。 2.2.1 智能问答 智能问答是 DeepSeek 最基础的功能之一,它能快速解答各类问题,包括科 学知识、历史文化、生活常识和技术问题等,都能给出准确且详细的回答。其中, 推理问答则是 联网搜索 3.2 本地部署 3.2.1 安装 Ollama Ollama 是开源的大语言模型服务工具,能将模型权重、配置和数据捆绑, 优化模型运行,支持 GPU 与热加载,在 Mac 和 Linux 上通过 docker 可快速 部署,可让用户便捷地在本地运行开源大型语言模型,如 deepseek 系列模型、 通义千问系列模型等,实现本地推理,且跨平台兼容主流操作系统,提供命令行10 积分 | 59 页 | 1.06 MB | 1 天前3
电子AI+系列专题:复盘英伟达的AI发展之路S0980522090001 l GPU 是人工智能时代下满足深度学习大量计算需求的核心 AI 芯片。 过去五年,大型语言模型的参数规模以指数级增长;从 2018 年起, OpenAI 开始发布生成式预训练语言模型 GPT 以来, GPT 更新换代持续提升模型 及参数规 模; 2022 年 12 月, OpenAI 发布基于 GPT-3.5 的聊天机器人模型 ChatGPT 3 月,英伟达在 GTC 大会上推出 4 个针对各种生成式 AI 应用程序进行优化的推理平台,其中发布带有双 GPU NVLink 的 H100 NVL 加速计算卡, 以支持 ChatGPT 类大型语言模型推理。与适用于 GPT-3 处理的 HGX A100 相比,配备四对 H100 与双 GPU NVLink 的标准服 务器的速度最高可达 10 倍。 l 计算与网络事业部收入占比提升,数据中心超过游戏成为收入主要来源。 突出需求,高并行度的深度学习算法在视觉、语音和自然语言 处理等领域上的广 泛应用使得算力需求呈现指数级增长。 据 Cisco 数据,全球数据中心负载任务量预计由 2016 年的 241.5 万个上升至 2021 年 的 566.7 万个,对应 CAGR 达 18.60% ;其中,云数据中心负载任务量 CAGR 预计达 22% 。 l 以模型中的参数数量衡量,大型语言模型的参数 在过去五年中以指数级增长。随着参数量和训练10 积分 | 30 页 | 1.27 MB | 5 月前3
共 49 条
- 1
- 2
- 3
- 4
- 5
