积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部人工智能(52)前沿探索(52)

语言

全部中文(简体)(52)

格式

全部PDF文档 PDF(41)PPT文档 PPT(9)DOC文档 DOC(2)
 
本次搜索耗时 0.023 秒,为您找到相关结果约 52 个.
  • 全部
  • 人工智能
  • 前沿探索
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页

    请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 | 2023年05月31日 超 配 电子 AI+系列专题报告 边缘 AI:大语言模型的终端部署,推动新一轮终端需求 核心观点 行业研究·行业专题 电子 超配·维持评级 证券分析师:胡剑 证券分析师:胡慧 021-60893306 021-60871321 hujian1@guosen.com.cn huhui2@guosen 特征是通过海量数据,无需标注自监督学习,训练一个基础大模型,并在各 领域将其专业化。据相关论文,当模型的参数量大于某阈值,会展现出类似 推理、无监督学习等未曾出现的能力,这种现象被称为“涌现”,因此目前 大语言模型参数均在十亿量级以上。同时,Deepmind 研究表明,模型参数的 上涨需要配合等比例上升的优质数据集来达到最佳训练效果。因此,大模型 参数在十亿级以上发展并受限于优质数据集的增速是 AI 发展的必然趋势。 8GHz 的占比 36%,价格在 1000 美金以上的占比 13%,即旗舰机型占比较低,随着 AI 大模 型在边缘端落地,有望推动新一轮换机潮。 以大语言模型为核心,以语言为接口,控制多 AI 模型系统,构建“贾维斯” 式智能管家。我们认为大语言模型不仅可以实现对话、创意,未来也有望作 为众多复杂 AI 模型的控制中心,同时也是接受用户指令的交互窗口,实现 《钢铁侠》电影中“贾维斯”式综合智能管家。23
    10 积分 | 25 页 | 2.20 MB | 5 月前
    3
  • pdf文档 DeepSeek大模型及其企业应用实践

    大模型可以从大量的数据中学习, 并利用学到的知识和模式来提供 更精准的答案和预测。这使得它 们在解决复杂问题和应对新的场 景时表现更加出色 学习能力强 大模型可以生成更自然、更流利 的语言,减少了生成输出时呈现 的错误或令人困惑的问题 语言生成能力 学习到的知识和能力可以在不同 的任务和领域中迁移和应用。这 意味着一次训练就可以将模型应 用于多种任务,无需重新训练 可迁移性高 1.2 大模型的发展历程 ,预训练大模型包含了预训练大语言模型(可以简称为“大语言模 型”),预训练大语言模型的典型代表包括OpenAI的GPT和百度的文心ERNIE,ChatGPT是基于GPT开发的大模型产品, 文心一言是基于文心ERNIE开发的大模型产品 人工智能 机器学习 深度学习 深度学习模型 预训练模型 深度学习 预训练大模型 预训练 大语言模型 预训练大语言模型 GPT 文心ERNIE 文心ERNIE ... ChatGPT 文心一言 1.4 大模型的分类 语言大模型 视觉大模型 多模态大模型 是指在自然语言处理(Natural Language Processing,NLP)领域中的一类大模型,通常 用于处理文本数据和理解自然语言。这类大模型 的主要特点是它们在大规模语料库上进行了训练, 以学习自然语言的各种语法、语义和语境规则。 代表性产品包括GPT系列(OpenAI)、Bard
    10 积分 | 147 页 | 16.82 MB | 5 月前
    3
  • pdf文档 大模型时代的AI教育:思考与实践2024

    智能(Intelligence):以模型为核心,是对真实世界的模拟和解释 人类智能 • 抽象(语言):概念,数字,理念 • 逻辑(理性):归纳,演绎,类比 • 计算(模型):科学方法 • 基于观测经验,发现规律 • MIT:一切问题都是模型问题 • 模型:一个映射,一个函数 科学范式 • 用语言逻辑方法获取理论模型:模糊 • 用解析数学方法获取数学模型:精确 • 用计算数学方法获取数据模型:近似 Diffusion、transformer ◼ 从NLU+NLG到LLM(大语言模型) 1. 语言逻辑和数据集蕴含了人类的认知智能 2. LLM是人类的认知智能的实现方式之一 3. LLM的原理很简单;工程很复杂;效果很神奇 01 对AI技术的认知:大模型的能力边界 用人工神经网络获取网络模型:深度学习-Transformer模型-大语言模型 大语言模型的核心原理:数据化-语义化-NTP(Next Token Token Prediction) 大语言模型的三层能力:语言能力-知识能力-推理能力 1. 语言能力:一本正经地说话,语言顺畅,GPT时达到 • NLG+NLU:语言理解、语言表达(包括温度和情商) • 人类语言、代码语言、XX语言 2. 知识能力:海量公开知识,言之有物,GPT-2时达到 • 顺带学习(基座模型):文字中蕴含了知识 • 压缩:幻觉 • 遗忘:微调(迁移学习),尤其是RLHF
    10 积分 | 36 页 | 4.04 MB | 5 月前
    3
  • ppt文档 电子AI+系列专题:复盘英伟达的AI发展之路

    S0980522090001 l GPU 是人工智能时代下满足深度学习大量计算需求的核心 AI 芯片。 过去五年,大型语言模型的参数规模以指数级增长;从 2018 年起, OpenAI 开始发布生成式预训练语言模型 GPT 以来, GPT 更新换代持续提升模型 及参数规 模; 2022 年 12 月, OpenAI 发布基于 GPT-3.5 的聊天机器人模型 ChatGPT 3 月,英伟达在 GTC 大会上推出 4 个针对各种生成式 AI 应用程序进行优化的推理平台,其中发布带有双 GPU NVLink 的 H100 NVL 加速计算卡, 以支持 ChatGPT 类大型语言模型推理。与适用于 GPT-3 处理的 HGX A100 相比,配备四对 H100 与双 GPU NVLink 的标准服 务器的速度最高可达 10 倍。 l 计算与网络事业部收入占比提升,数据中心超过游戏成为收入主要来源。 突出需求,高并行度的深度学习算法在视觉、语音和自然语言 处理等领域上的广 泛应用使得算力需求呈现指数级增长。 据 Cisco 数据,全球数据中心负载任务量预计由 2016 年的 241.5 万个上升至 2021 年 的 566.7 万个,对应 CAGR 达 18.60% ;其中,云数据中心负载任务量 CAGR 预计达 22% 。 l 以模型中的参数数量衡量,大型语言模型的参数 在过去五年中以指数级增长。随着参数量和训练
    10 积分 | 30 页 | 1.27 MB | 5 月前
    3
  • pdf文档 电子行业:AI大模型需要什么样的硬件?-20240621-华泰证券-40页

    ......................................................................................... 13 编程:AI 协助编程开发,提高开发效率与质量 .................................................................................. 摘要:大模型能力提升不断解锁新的应用场景 过去一年,大模型能力的发展速度超出我们预期。以衡量 LLM 的常用的多语言理解均值评 测标准(MMLU)为例,2021 年底全球最先进大模型的 MMLU 5-shot 得分刚达到 60%, 2022 年底超过 70%,而 2023 年底已提升至超过 85%。在语言能力之外,AI 大模型的多模 态能力也快速提升。2023 年初,主流闭源大模型通常为纯文本的 LLM。2023 化方式来处理和回复用户输入,可以模拟人类对话,通过文字或语音与用户进行实时交互。 2010 年代,随着 NLP 等技术的发展,Chatbot 已经在客服、营销、企业信息服务等领域得 到了广泛应用。然而,由于语言理解及生成能力有限,因此 Chatbot 的落地范围局限在 B 端特定服务型场景,并未诞生具有广泛影响力的 C 端产品。2022 年 12 月,ChatGPT 在文 本生成、代码生成与修改、多轮对话等领域展现了大幅超越过去
    10 积分 | 40 页 | 2.60 MB | 5 月前
    3
  • pdf文档 未来网络发展大会:2025光电融合网络技术与产业应用白皮书

    层控制的深度协同,构 建的统一网络架构体系。其核心是将传统分离的光传输系统 (DWDM/OTN)与分组交换设备(路由器/交换机)在物理设备层、 协议层和网络管理层实现三重融合,形成下一代确定性、可编程、广 覆盖的智能承载网络。光电融合网络技术具备如下三大关键特征: 1. “IP+光”协同引擎 采用高速相干彩光模块(如 400G/800G ZR+、1.6T 模块)作为 IP 层直连接口,实 活部署于核心、汇聚、边缘等多种应用场景,满足智算中心互联、骨 干网演进、数据中心互联等需求。 5.支持标准化协议与可编程能力 全面兼容 NETCONF、PCEP、Telemetry、BGP-LS 等南向接口协 议,并支持 SR/SRv6、VPN、安全计算等网络能力开放,为构建自动 化、可编程网络提供基础支撑。 光电融合技术体系依赖三个方面的发展:光模块与白盒设备的发 展、设备操作系统的发展、统一控制器的发展。 设备的精细控制,扩展光转发逻辑能力,具备一定可编程性,但适用 范围有限。 NETCONF + YANG:成为现代网络自动化的主流组合。YANG 定义数据模型、NETCONF 实现配置交互,两者结合可支持跨厂商设 备的统一配置和状态同步,替代传统 CLI/SNMP,实现从“人工脚本” 向“结构化交互”的转型。 如今,业界更多转向以 PCEP + BGP-LS、NETCONF + YANG 等 更轻量、模块化、可编程的协议体系,来实现
    20 积分 | 95 页 | 2.94 MB | 1 天前
    3
  • ppt文档 清华大学:DeepSeek赋能家庭教育

    、生活技能(自理) 、身心健康(情绪管理) 。 3. 系统内容 显性教育 学科辅导 、技能训练(编程 / 乐器) 、规则制定(作息时间) 。 隐性教育 家庭文化(餐桌礼仪) 、情感联结(亲子共读) 、价值观渗透(家长以身作则) 。 4. 系统方法 沟通方式 对话与倾听(非暴力沟通) 、非语言互动(拥抱鼓励) 。 激励与约束 正向强化(积分奖励) 、负向反馈(暂停特权) 。 参与模式 共同活动(家庭运动日) 直接讲解数学解题方法 提供分步拆解工具 避免亲子冲突, 培养自主 解题能力 分步拆解模式(案例 1 ) : 通过设变量 、列方程 、 推导等步骤引导思考 修改作文语法错误 启发表达优化思维 提升语言应用能力而非机 械纠错 智能润色系统(案例 2 ) : 分析语法错误, 提 供 高级表达替代方案 单向讲述历史事件 构建沉浸式学习体验 增强记忆深度与兴趣 时空穿越对话(案例 3 ) : 解题 2. 角色混淆 父亲用 DeepSeek 润色系统批改作文 后, 直接要求孩子照搬修改建议, 未 解释 " 月华如水 " 比 " 月亮很亮 " 好 在何 处 孩子丧失语言鉴赏能力 ,修改过程沦为 复制粘贴 ,作文分数提升但创造力未实 质进步 l 家长需先理解 AI 建议的核心价 值 l 采用 "A I 建议 + 家长解读 " 双轨
    10 积分 | 89 页 | 9.10 MB | 5 月前
    3
  • pdf文档 华为:鲲鹏原生开发技术白皮书(6.0修订版)

    实现 1 套代码 +1 条流水线构建多平台版本,效率更高、性能更优。 图 2-1 核心技术理念 代 码 开 发 阶 段 代码开发 代码优化 编译 调试 调优 • 场景化 SDK • 启发式编程 • BoostKit 应用使能 • 鲲鹏亲和分析 • 毕昇编译器 • 毕昇 JDK • GCC for openEuler • 鲲鹏调试器 • 系统性能分析 • Java 性能分析 • 能力介绍 鲲鹏原生开发技术白皮书 / 06 鲲鹏原生开发能力介绍 3.1 代码开发阶段 图 3-1 代码开发阶段 代码开发 代码优化 编译 调试 调优 • 场景化 SDK • 启发式编程 • BoostKit 应用使能 • 鲲鹏亲和分析 • 毕昇编译器 • 毕昇 JDK • GCC for openEuler • 鲲鹏调试器 • 系统性能分析 • Java 性能分析 • • 系统诊断 通过鲲鹏 DevKit/BoostKit 开发代码:充分应用鲲鹏架构优势,性能更优 3.1.1.2 应用开发工具 应用开发工具支持创建鲲鹏应用工程,支持 C/C++ 开发语言,编码时能够自动匹配鲲鹏加速库函数字典、智能提示、 高亮、联想字典中可以替换的库和函数。支持以下功能: » 鲲鹏应用工程:只需要在创建鲲鹏应用工程页面进行简单的输入和选择,便可以实现自动化构建鲲鹏应用工程,
    10 积分 | 112 页 | 17.64 MB | 5 月前
    3
  • ppt文档 2025年智启未来·险见新机-人保寿险大模型探索及实践(33页 PPT)

    GPT-4 的千分之一。 自主试错优化 R1 采用纯强化学习( RL )训练,跳过 SFT ,让模型通过自主试错和优化来学习, 减少对标注数据依赖,降低训练复杂度。 在实际应用中, R1 在数学和编程任务中表现优于 OpenAI o1 。 自适应调整 极简单的奖励规则,让大模型自我博弈、不断顿悟与自适应调整,实现深度思 考。比如, R1 会深入思考多种解题路径,评估优劣后选择数学难题的最优解, (深度推理) 小模型 (实时响应) 大小模型协同方案 复杂任务路由 结果反馈 用户请求 17 人保大模型应用实践 - AI 保宝 近两年,人保寿险建设“ AI 保宝”大模型平台项目,引进生成式大语言模型,面向保司内勤、外勤两大群体,切实解决在办公 保司 内勤 保司 外勤 知识问答、合同审核对比、 文案 / 海报生成等 坐席话术推荐、产品 咨询服务等 产品条款、投保规则、保单 ,实现课程封面图的定制化设计和生成。 配的全语音个性化交互学习新体验 实施成效 基础课程(预习、 训练、 通关) 课程推荐 智能推荐 (规划中) VR/AR (规划中) 语言流畅度分析 情感分析 声纹识别 (规划中) VR/AR 场 景 训 练(规划中) 语义理解 多路径场景 其他算法 模型 智能训辅 数据统计 人脸识别 智能打分
    10 积分 | 33 页 | 2.82 MB | 1 天前
    3
  • pdf文档 电子行业深度报告:DeepSeek推动模型平权,关注AI终端及算力领域

    不分伯仲,训练成本仅约为 558 万美元。1 月 20 日,DeepSeek 开源 R1 模型,后训练阶段大规模使用了强化学习技术,在仅有极少标注数据的情况下, 极大提升了模型推理能力。在数学、代码、自然语言推理等任务上,性能比肩 OpenAI o1 正式版。 图 1:DeepSeek R1 性能比肩 OpenAI o1 数据来源:DeepSeek公众号,东莞证券研究所 同时,DeepSeek-R1 海外头部企业积极跟进。2 月 1 日,OpenAI 官宣 o3 mini 和 o3 mini high 两大版本上 线 ChatGPT,其中 o3 mini 的复杂推理、对话能力显著提升,在科学、数学、编程等领 域性能优秀,且保持了 o1 mini 的低成本和低延迟,并可与联网搜索功能搭配使用。谷 歌则在 2 月 6 日推出 Gemini 2.0 家族,包括 Gemini 2.0 Pro 实验版本、Gemini reasoning、Grok 3 mini reasoning。其中 Grok 3 在数学、科学、 编程等领域的性能进一步提升,表现好于 Gemini 2 Pro、DeepSeek V3、Claude 3.5 Sonnet 及 GPT-4o 等模型;而推理模型 Grok 3 reasoning Beta 在数学、科学、编程等表现上 亦好于 OpenAI o3 mini(high)、DeepSeek R1、Gemini
    10 积分 | 23 页 | 2.65 MB | 5 月前
    3
共 52 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
前往
页
相关搜索词
电子行业电子行业AI系列专题边缘语言模型终端部署推动一轮新一轮需求20230531国信证券25DeepSeek及其企业应用企业应用实践时代教育思考2024复盘伟达发展需要什么什么样硬件20240621华泰40未来网络大会2025光电融合技术产业白皮皮书白皮书清华华大大学清华大学赋能家庭家庭教育华为鲲鹏原生开发开发技术6.0修订修订版年智启险见新机人保寿险探索33PPT深度报告平权关注及算力领域
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩