积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部人工智能(140)行业赋能(69)前沿探索(45)大模型技术(17)技术工具(7)基础设施(2)

语言

全部中文(简体)(140)

格式

全部PDF文档 PDF(73)PPT文档 PPT(34)DOC文档 DOC(33)
 
本次搜索耗时 0.021 秒,为您找到相关结果约 140 个.
  • 全部
  • 人工智能
  • 行业赋能
  • 前沿探索
  • 大模型技术
  • 技术工具
  • 基础设施
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • ppt文档 AI在保险行业的发展和应用(32页 PPT)

    10 积分 | 32 页 | 941.17 KB | 1 天前
    3
  • ppt文档 DeepSeek华为云AI解决方案

    行业场景应用创业公司,人工智能研究院 开发者、中小企业尝鲜客户 部署模型 DeepSeek-V3 DeepSeek-R1 DeepSeek-V3 DeepSeek-R1 DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Qwen-1.5B DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Llama-70B 业务体验 专属资源 专属资源 / 公共资源 专属资源 / 公共资源 可销售 Offering 卖昇腾云算力 + 专业服务 ModelArts 年,每个模型可免费体验 200wtokens 按需、包月 / 年 典型配置 昇腾云部署: DeepSeek-V3 和 DeepSeek-R1 : 32 卡 910B 起步,根据推理并发量配置 DeepSeek-R1-Distill-Qwen-32B : 2 卡 910B 起步,根据推理并发量配置 DeepSeek-R1-Distill-Qwen-14B 和 -Distill-Llama-8B
    10 积分 | 16 页 | 850.86 KB | 5 月前
    3
  • word文档 面向审计行业DeepSeek 大模型操作指南(27页 WORD)

    HuggingFace DeepSeek-R1-Distill-Qwen-14B Qwen2.5-14B HuggingFace DeepSeek-R1-Distill-Qwen-32B Qwen2.5-32B HuggingFace DeepSeek-R1-Distill-Llama-70B Llama-3.3-70B-Instruct HuggingFace 即使经过了蒸馏,7B 的效果受限于模型大小,性能不会很好,可以根据自己电脑内存大小 尝 试 14b 或者 32b 的模型。 4.3.5 部署非量化模型 另外,如果想部署未量化版本的 DeepSeek 或者原始版本的 DeepSeek,可 以 “ 进入网站 https://hf-mirror.com/”,选择对应版本的模型,按照其指南依次进行 部署。下面以 32B 未量化版本为例,说明该过程。 进入模型所对应的页面: https://hf-mirror https://hf-mirror.com/DeepSeek-ai/DeepSeek-R1-Distill-Qwen-32B “ ,点击 Use this model ”,如下图所示。 图 17 hugging face 国内镜像 DeepSeek-R1-32B 模型页面 在上步点击后,将弹出不同的使用方式。如下图。 图 18 使用方式界面 “ 选择 vLLM ”方式,点击后将显示该方式的部署和测试步骤。此处提供两
    0 积分 | 27 页 | 829.29 KB | 1 天前
    3
  • ppt文档 华为昇腾DeepSeek解决方案

    完成,从而解决 R1-Zero 可读性差、 多种 语言混合问题 本次开源同时发布了 6 个基于 DeepSeek-R1 蒸馏的更小稠密模 型 ( Qwen/LLaMa 1.5B 7B 14B 32B 70B ) DeepSeek-R1 以 DeepSeek-V3 Base ( 671B )为基础模型, 使 用 GRPO 算法作为 RL 框架来提升 Reasoning 性能 Huawei 兼顾成本与性能的蒸馏 / 微调方 案 • 便捷的部署、敏捷业务上线 DeepSeek-V3-671B DeepSeek-R1-671B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-1.5B (蒸馏后较原模型能力提升 10%+ ) BERT-Large Transformer ● 2 工程创新 新一轮百模千态 DeepSeek R1 - √ DeepSeek Janus-Pro-1B/7B √ √ DeepSeek R1-Distill-Llama-70B - √ DeepSeek R1-Distill-Qwen-32B - √ DeepSeek R1-Distill-Llama-8B DeepSeek R1-Distill-Qwen-1.5B/7B/14B √ √ 配套版本上线昇腾社区: https://www
    0 积分 | 32 页 | 2.52 MB | 5 月前
    3
  • pdf文档 网络安全溯源指南v1.0

    ......................................32 1、IP 溯源 .............................................................................................................. 32 2、ID 溯源 ............................. Windows 2000 / Server2003 / Windows XP: %SystemRoot%\System32\Winevt\Logs\*.evtx Windows Vista / 7 / 10 / Server2008 及以上版本: %SystemRoot%\System32\Config\*.evtx Windows 事件日志中,它记录为事件 ID=4625 表示失败,记录为事件 ID=4624 或内存资源占用长时间过高的进程 2、没有签名验证信息的进程 3、进程的路径是否合法、常规 4、没有描述信息的进程 显示 进程--PID--服务:​ tasklist /svc 开始--运行--输入 msinfo32,依次点击“软件环境→正在运行任务”就可以 查看到进程的详细信息,比如进程路径、进程 ID、文件创建日期、启动时间等。 寸光网络安全工作室 第 7 页 共 34 页 通过微软官方提供的 Process
    10 积分 | 34 页 | 2.16 MB | 1 天前
    3
  • pdf文档 电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页

    ...........17 图31: PaLM2 的从小到大的四种版本 .........................................................18 图32: PaLM2 在部分测试中体现出了优异性 ...................................................18 图33: ChatGPT App 欢迎界面 资料来源:知乎,国信证券经济研究所整理 我们可以粗略的计算训练 1750 亿参数的 GPT3 所需内存,大约需要 3.2TB 以上。 静态内存方面,大多数 Transformer 都是以混合精度训练的,如 FP16+FP32,以 减少训练模型内存,则一个参数占 2 个字节,参数和优化器状态合计占用内存 1635G。而动态内存,根据不同的批量大小、并行技术等结果相差较大,通常是静 态内存的数倍。更简洁的估算方法,可以假设典型的 亿参数的 GPT3 大概需要 3.2TB 内存。 推理所需内存则较小,假设以 FP16 存储,175B 参数的 GPT3 推理大约需要内存 327G,则对应 4 张 80G A100,如果以 FP32 运算,则需要 10 张。 请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 9 表2:大语言模型的计算 公式 注释 模型参数 优化器内存 梯度内存 激活重计算 模型训练内存
    10 积分 | 25 页 | 2.20 MB | 5 月前
    3
  • pdf文档 浙江大学:DeepSeek的本地化部署与AI通识教育之未来

    o1-mini v 基于DeepSeek-V3训 练DeepSeek-R1-Zero 和 DeepSeek-R1 v DeepSeek-R1 的输出, 蒸馏了 6 个小模型开 源给社区 v 其中 32B 和 70B 模型 在多项能力上实现了 对标 OpenAI o1-mini 的效果。 15 DeepSeek的惊天动地事迹 2024.1.25: 发布DeepSeek-Coder 2024 近期:各行业开始研究部署... 1.DeepSeek简介 16 DeepSeek是谁?咱们通俗说一说...... 基于 Llama 、 Qwen 六个密集模型 (1.5b、7b、8b、 14b、32b、70b) 大师 徒弟 蒸馏版 训练 DeepSeek- R1- Zero DeepSeek- R1 蒸馏 满血版 DeepSeek-V3 671b 17 DeepSeek破圈席卷全球 运行机器 R1-1.5b 4GB+ 8GB+ 5GB 个人普通机 R1-7b 12GB+ 16GB+ 10GB 个人普通机 R1-8b 16GB+ 32GB+ 15GB 个人普通机 R1-14b 24GB+ 64GB+ 30GB 专用服务器 R1-32b 48GB+ 128GB+ 60GB GPU服务器 R1-70b 80GB+ 256GB+ 120GB GPU服务器 V3\R1-671B
    10 积分 | 57 页 | 38.75 MB | 5 月前
    3
  • word文档 2025面向工程审计行业的DeepSeek大模型应用指南-南京审计大学工程审计学院(45页 WORD)

    .......................................32 5.1 工程审计问题相关法条自动检索................................................................................................. 32 5.1.1 工程审计问题相关法条自动检索概述 ............. ............................................ 32 5.1.2 工程审计问题相关法条自动检索实现 .............................................................................. 32 5.2 工程项目智慧造价................................ DeepSeek - R1 - 7B 对应的显卡略高 DeepSeek - R1 - 14B 12 核及以上 32GB 及 以上 15GB 以 上 需 16GB 及以上显存的显 卡,如 RTX 4090 或 A5000 DeepSeek - R1 - 32B 16 核及以上,例如 AMD Ryzen 9 或 Intel i9 处理器 64GB 及
    10 积分 | 59 页 | 1.06 MB | 1 天前
    3
  • pdf文档 华为:鲲鹏原生开发技术白皮书(6.0修订版)

    鲲鹏原生开发的核心技术理念 03 03 鲲鹏原生开发能力介绍 05 3.1 代码开发阶段 06 3.1.1 代码开发 06 3.1.2 代码优化 28 3.1.3 编译 30 3.1.4 调试 32 3.1.5 调优 37 3.2 流水线阶段 61 3.2.1 门禁检查 61 3.2.2 编译构建 66 3.2.3 调优 67 3.2.4 测试 68 3.2.5 版本发布 原生 Web/CDN openEuler 和毕昇 JDK 性能优化 压缩算法 NVMe SSD 原子写 KAE RSA 加解密 OVS 流表归一化 虚拟化调度优化 ExaGear AArch32 指令翻译软件 Gazelle 网络优化 OVS 流表网卡加速 vKAE 鲲鹏 GCC CFGO 反馈优化 高性能云盘优化 vCPU 热插拔 KAEzip 压缩解压缩优化 虚拟化 DPU 大数据 分布式存储 数据库 虚拟化 ARM 原生 HPC EC Turbo MySQL 可插拔在线 向量化分析引擎 Kbox 云手机容器 多瑙调度器 负载感知加速系统 智能写 Cache CRC32 指令优化 视频流引擎 多瑙调度平台 图分析算法 IO 直通 MySQL NUMA 调度优化 指令流引擎 机器学习算法 数据压紧 MySQL 可插拔线程池 元数据加速 MySQL 并行查询优化
    10 积分 | 112 页 | 17.64 MB | 5 月前
    3
  • ppt文档 电子AI+系列专题:复盘英伟达的AI发展之路

    2024 年的 785 亿元,对应 CAGR 达 45.11% 。 AI 芯片中 由于 GPU 通用型强,满足深度学习大量计算 的需求,因此 GPU 在训练负载中具有绝对优势。以 GPT-3 为例,在 32 位的单精度浮点数数据下,训练 阶段所需 GPU 数量为 1558 个,谷歌级应用推理阶段所 需 GPU 数量为 706315 个。 l 英伟达开辟 GPGPU 加速计算格局, GPU 架构演进及产品布局赋能 运算性能 ( TFLOPS ) 整型定点 运算性能 ( TOPS ) 显存 (GB) 显存带宽 (GB/s) 功耗 (W) Google TPU v4 2021 7nm - 275 275 32 1200 192 平头哥 含光 800 2021 12nm - - 825 - - 276 寒武纪 思元 370 MLU370-X8 2021 7nm 24 96 256 资料来源:英伟达 CUDA 文档,国信证券经济研究所整 理 资料来源: CSDN ,国信证券经济研究所整 理 l 《 AI 大语言模型的原理、演进及算力测算》 l 训练阶段:考虑采用精度为 32 位的单精度浮点数数据进行训练和推理。 以 A100 PC le 芯片为例( H100 PC le 芯片同理), GPT-3 训练所需 运算次 数为:样本 token 数 3000 亿个 *6*
    10 积分 | 30 页 | 1.27 MB | 5 月前
    3
共 140 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 14
前往
页
相关搜索词
AI保险行业保险行业发展应用32PPTDeepSeek华为解决方案解决方案面向审计模型操作指南27WORD网络安全网络安全溯源v1电子电子行业系列专题边缘语言终端部署推动一轮新一轮需求20230531国信证券25浙江大学浙江大学本地本地化通识教育未来2025工程南京学院45鲲鹏原生开发技术开发技术白皮皮书白皮书6.0修订修订版复盘伟达
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩