积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部研究报告(271)企业案例(102)技术趋势(40)人工智能(33)能源双碳(29)制造业(27)区域研究(22)低空经济(11)教育医疗(7)

语言

全部中文(简体)(257)英语(1)

格式

全部PDF文档 PDF(213)PPT文档 PPT(46)DOC文档 DOC(12)
 
本次搜索耗时 0.016 秒,为您找到相关结果约 271 个.
  • 全部
  • 研究报告
  • 企业案例
  • 技术趋势
  • 人工智能
  • 能源双碳
  • 制造业
  • 区域研究
  • 低空经济
  • 教育医疗
  • 全部
  • 中文(简体)
  • 英语
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • word文档 智慧酒店能源管控系统(32页 WORD)

    10 积分 | 50 页 | 734.79 KB | 1 天前
    3
  • pdf文档 智驾地图市场研究报告(2025)-32页

    10 积分 | 32 页 | 5.32 MB | 4 月前
    3
  • ppt文档 2025年保险行业AI应用全景洞察报告(32页PPT)

    20 积分 | 32 页 | 4.87 MB | 1 天前
    3
  • ppt文档 智能客服系统的构建与算法迭代(32页PPT-贝壳)

    20 积分 | 32 页 | 4.41 MB | 1 天前
    3
  • pdf文档 英特尔公有云和互联网创新实践

    Bot) 工作负载中实现了 1.2 倍的代际吞吐性能提升 6。 收益 • 提升 NLP 应用的性能 显著化解 NLP 中频繁的向 72B 最大可支持参数规模 eRDMA 集群 batchsize>32 内存资源丰富 eRDMA 集群化部署 g8i g8i g8i g8i g8i g8i 5 千帆大模型平台利用百度智能云平台中丰富的英特尔® 至强® 可扩展处理器资源,加速 LLM 模 型推理,满足 16-bit output 32-bit acc output 32-bit acc output 8-bit input 8-bit input Intel® AVX-512 (VNNI) Intel® AMX 8-bit new instruction vpdpbusd 8-bit input 8-bit input 32-bit acc input 32-bit acc output input 32-bit acc input 32-bit acc input 8-bit new instruction vpdpbusd 8-bit input 8-bit input 32-bit acc input 32-bit acc input 8-bit new instruction vpdpbusd 8-bit input 8-bit input 32-bit acc
    10 积分 | 38 页 | 12.52 MB | 5 月前
    3
  • pdf文档 2025年基于LTE-V2X预警类应用的功能安全分析白皮书

    1 / 32 摘 要 本研究基于 LTE-V2X 直连通信技术,对预警类应用的功能安全进行了系统分析。研究背景指出, 传统的功能安全分析方法主要针对单车系统,近年来 V2X 技术逐渐发展,智能网联汽车应用不断 增加,但缺乏系统性的功能安全分析方法。本研究选取前向碰撞预警(FCW)、交叉路口碰撞预警 (ICW)和闯红灯预警(RLVW)三个典型应用场景,对基于 LTE-V2X 预警类应用的功能安全分 在总结及展望部分,建议以本研究为开端,将 GB/T 34590 的功能安全分析方法拓展至 V2X 系统。 本研究的主要结论为:QM 级别的功能安全设计能够满足 V2X 预警类应用的需求。 2 / 32 Executive Summary This study conducts a systematic functional safety analysis for LTE-V2X warning potential hazards in typical V2X warning scenarios can be managed with QM-level safety measures. 3 / 32 目 录 摘 要.........................................................................................
    10 积分 | 34 页 | 3.26 MB | 5 月前
    3
  • pdf文档 EY安永:2025年企业业务流程变革与创新调研报告

    53% 35% 2025 18 10 Q 4% 18% 35% 53% 61% 58% 44% 41% 11 Q 2% 15% 17% 22% 24% 28% 32% 41% 44% 44% 58% 58% 19 (EY Change Experience) 2025 20 ◼ ◼ ◼ ◼ ◼ ◼ P e r s o n a 22% 13% 39% 23 2025 24 13 Q 26% 22% 13% 39% ◼ ◼ ◼ ◼ ◼ 68% 46% 15% 7% 32% 525 7% 15% 46% 32% 2025 26 14 Q 21% 39% 16% 8% 16% 527 15 Q 2 ≥1000 500-1000 300-500 100-300 531 1993 Michael Hammer James Champy 83% 76% 68% 67% 66% 19 Q 0% 66% 67% 68% 76% 83% 2025 32 4 533 20 2025 34 21 Q 46% 25% 20% 9% 54% 25% 29% 9% 535 APQC American Productivity and
    10 积分 | 68 页 | 11.77 MB | 1 天前
    3
  • ppt文档 大型集团企业数字化转型规划设计解决方案

    工具实现,面向企业内外部用 户 管理分析类应用 1 沙盘演练类应用 3 历史查询类应用 4 高时效类分析应用 5 数据增值类产品 2  实时分析类应用通常使用 CEP 、 ESB 等技术实现 Page32 企业数字化转型总体架构——平台发展不同阶段对应应用 工作负载复杂度 大数据平台发展阶段划分 操作为主阶段 什么正在发生? 动态数据仓库阶段 让正确的事情发生! 分析为主阶段 为什么会发生 操作系统 内置盘 基础计算平台 ( Hadoop 集 群) DataNode&TaskTrac ker 服务器 70 32 128G 2*1Gb Centos6.3 12*2TB7200RPMS ATAdisks NameNode&JobTrac ker 服务器 3 32 128G 2*1Gb Centos6.3 4*600GB15KSASdi sksRAID0+1 历史归 档 查询 平台 sksRAID0+1 沙盘演练平台 ( Hadoop 集 群) DataNode&TaskTrac ker 服务器 30 32 128G 2*1Gb Centos6.3 12*2TB7200RPMS ATAdisks NameNode&JobTrac ker 服务器 3 32 128G 2*1Gb Centos6.3 4*600GB15KSASdi sksRAID0+1 Page71 企业数字化转型一期硬件配置(续)
    10 积分 | 107 页 | 8.63 MB | 5 月前
    3
  • pdf文档 电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页

    ...........17 图31: PaLM2 的从小到大的四种版本 .........................................................18 图32: PaLM2 在部分测试中体现出了优异性 ...................................................18 图33: ChatGPT App 欢迎界面 资料来源:知乎,国信证券经济研究所整理 我们可以粗略的计算训练 1750 亿参数的 GPT3 所需内存,大约需要 3.2TB 以上。 静态内存方面,大多数 Transformer 都是以混合精度训练的,如 FP16+FP32,以 减少训练模型内存,则一个参数占 2 个字节,参数和优化器状态合计占用内存 1635G。而动态内存,根据不同的批量大小、并行技术等结果相差较大,通常是静 态内存的数倍。更简洁的估算方法,可以假设典型的 亿参数的 GPT3 大概需要 3.2TB 内存。 推理所需内存则较小,假设以 FP16 存储,175B 参数的 GPT3 推理大约需要内存 327G,则对应 4 张 80G A100,如果以 FP32 运算,则需要 10 张。 请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 9 表2:大语言模型的计算 公式 注释 模型参数 优化器内存 梯度内存 激活重计算 模型训练内存
    0 积分 | 25 页 | 2.20 MB | 6 月前
    3
  • ppt文档 电子AI+系列专题:复盘英伟达的AI发展之路

    2024 年的 785 亿元,对应 CAGR 达 45.11% 。 AI 芯片中 由于 GPU 通用型强,满足深度学习大量计算 的需求,因此 GPU 在训练负载中具有绝对优势。以 GPT-3 为例,在 32 位的单精度浮点数数据下,训练 阶段所需 GPU 数量为 1558 个,谷歌级应用推理阶段所 需 GPU 数量为 706315 个。 l 英伟达开辟 GPGPU 加速计算格局, GPU 架构演进及产品布局赋能 运算性能 ( TFLOPS ) 整型定点 运算性能 ( TOPS ) 显存 (GB) 显存带宽 (GB/s) 功耗 (W) Google TPU v4 2021 7nm - 275 275 32 1200 192 平头哥 含光 800 2021 12nm - - 825 - - 276 寒武纪 思元 370 MLU370-X8 2021 7nm 24 96 256 资料来源:英伟达 CUDA 文档,国信证券经济研究所整 理 资料来源: CSDN ,国信证券经济研究所整 理 l 《 AI 大语言模型的原理、演进及算力测算》 l 训练阶段:考虑采用精度为 32 位的单精度浮点数数据进行训练和推理。 以 A100 PC le 芯片为例( H100 PC le 芯片同理), GPT-3 训练所需 运算次 数为:样本 token 数 3000 亿个 *6*
    0 积分 | 30 页 | 1.27 MB | 6 月前
    3
共 271 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 28
前往
页
相关搜索词
智慧酒店能源管控系统32WORD智驾地图市场研究报告2025保险行业保险行业AI应用全景洞察PPT智能客服构建算法迭代贝壳英特特尔英特尔公有互联联网互联网创新实践基于LTEV2X预警功能安全分析白皮皮书白皮书EY安永企业业务流程业务流程变革调研大型集团数字数字化转型规划划设设计规划设计解决方案解决方案电子电子行业系列专题边缘语言模型终端部署推动一轮新一轮需求20230531国信证券25复盘伟达发展
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩