AI在保险行业的发展和应用(32页 PPT)10 积分 | 32 页 | 941.17 KB | 1 天前3
DeepSeek华为云AI解决方案行业场景应用创业公司,人工智能研究院 开发者、中小企业尝鲜客户 部署模型 DeepSeek-V3 DeepSeek-R1 DeepSeek-V3 DeepSeek-R1 DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Qwen-1.5B DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Qwen-7B DeepSeek-R1-Distill-Llama-8B DeepSeek-R1-Distill-Qwen-14B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Llama-70B 业务体验 专属资源 专属资源 / 公共资源 专属资源 / 公共资源 可销售 Offering 卖昇腾云算力 + 专业服务 ModelArts 年,每个模型可免费体验 200wtokens 按需、包月 / 年 典型配置 昇腾云部署: DeepSeek-V3 和 DeepSeek-R1 : 32 卡 910B 起步,根据推理并发量配置 DeepSeek-R1-Distill-Qwen-32B : 2 卡 910B 起步,根据推理并发量配置 DeepSeek-R1-Distill-Qwen-14B 和 -Distill-Llama-8B10 积分 | 16 页 | 850.86 KB | 5 月前3
面向审计行业DeepSeek 大模型操作指南(27页 WORD)HuggingFace DeepSeek-R1-Distill-Qwen-14B Qwen2.5-14B HuggingFace DeepSeek-R1-Distill-Qwen-32B Qwen2.5-32B HuggingFace DeepSeek-R1-Distill-Llama-70B Llama-3.3-70B-Instruct HuggingFace 即使经过了蒸馏,7B 的效果受限于模型大小,性能不会很好,可以根据自己电脑内存大小 尝 试 14b 或者 32b 的模型。 4.3.5 部署非量化模型 另外,如果想部署未量化版本的 DeepSeek 或者原始版本的 DeepSeek,可 以 “ 进入网站 https://hf-mirror.com/”,选择对应版本的模型,按照其指南依次进行 部署。下面以 32B 未量化版本为例,说明该过程。 进入模型所对应的页面: https://hf-mirror https://hf-mirror.com/DeepSeek-ai/DeepSeek-R1-Distill-Qwen-32B “ ,点击 Use this model ”,如下图所示。 图 17 hugging face 国内镜像 DeepSeek-R1-32B 模型页面 在上步点击后,将弹出不同的使用方式。如下图。 图 18 使用方式界面 “ 选择 vLLM ”方式,点击后将显示该方式的部署和测试步骤。此处提供两0 积分 | 27 页 | 829.29 KB | 1 天前3
华为昇腾DeepSeek解决方案完成,从而解决 R1-Zero 可读性差、 多种 语言混合问题 本次开源同时发布了 6 个基于 DeepSeek-R1 蒸馏的更小稠密模 型 ( Qwen/LLaMa 1.5B 7B 14B 32B 70B ) DeepSeek-R1 以 DeepSeek-V3 Base ( 671B )为基础模型, 使 用 GRPO 算法作为 RL 框架来提升 Reasoning 性能 Huawei 兼顾成本与性能的蒸馏 / 微调方 案 • 便捷的部署、敏捷业务上线 DeepSeek-V3-671B DeepSeek-R1-671B DeepSeek-R1-Distill-Qwen-32B DeepSeek-R1-Distill-Qwen-1.5B (蒸馏后较原模型能力提升 10%+ ) BERT-Large Transformer ● 2 工程创新 新一轮百模千态 DeepSeek R1 - √ DeepSeek Janus-Pro-1B/7B √ √ DeepSeek R1-Distill-Llama-70B - √ DeepSeek R1-Distill-Qwen-32B - √ DeepSeek R1-Distill-Llama-8B DeepSeek R1-Distill-Qwen-1.5B/7B/14B √ √ 配套版本上线昇腾社区: https://www0 积分 | 32 页 | 2.52 MB | 5 月前3
网络安全溯源指南v1.0......................................32 1、IP 溯源 .............................................................................................................. 32 2、ID 溯源 ............................. Windows 2000 / Server2003 / Windows XP: %SystemRoot%\System32\Winevt\Logs\*.evtx Windows Vista / 7 / 10 / Server2008 及以上版本: %SystemRoot%\System32\Config\*.evtx Windows 事件日志中,它记录为事件 ID=4625 表示失败,记录为事件 ID=4624 或内存资源占用长时间过高的进程 2、没有签名验证信息的进程 3、进程的路径是否合法、常规 4、没有描述信息的进程 显示 进程--PID--服务: tasklist /svc 开始--运行--输入 msinfo32,依次点击“软件环境→正在运行任务”就可以 查看到进程的详细信息,比如进程路径、进程 ID、文件创建日期、启动时间等。 寸光网络安全工作室 第 7 页 共 34 页 通过微软官方提供的 Process10 积分 | 34 页 | 2.16 MB | 1 天前3
电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页...........17 图31: PaLM2 的从小到大的四种版本 .........................................................18 图32: PaLM2 在部分测试中体现出了优异性 ...................................................18 图33: ChatGPT App 欢迎界面 资料来源:知乎,国信证券经济研究所整理 我们可以粗略的计算训练 1750 亿参数的 GPT3 所需内存,大约需要 3.2TB 以上。 静态内存方面,大多数 Transformer 都是以混合精度训练的,如 FP16+FP32,以 减少训练模型内存,则一个参数占 2 个字节,参数和优化器状态合计占用内存 1635G。而动态内存,根据不同的批量大小、并行技术等结果相差较大,通常是静 态内存的数倍。更简洁的估算方法,可以假设典型的 亿参数的 GPT3 大概需要 3.2TB 内存。 推理所需内存则较小,假设以 FP16 存储,175B 参数的 GPT3 推理大约需要内存 327G,则对应 4 张 80G A100,如果以 FP32 运算,则需要 10 张。 请务必阅读正文之后的免责声明及其项下所有内容 证券研究报告 9 表2:大语言模型的计算 公式 注释 模型参数 优化器内存 梯度内存 激活重计算 模型训练内存10 积分 | 25 页 | 2.20 MB | 5 月前3
浙江大学:DeepSeek的本地化部署与AI通识教育之未来o1-mini v 基于DeepSeek-V3训 练DeepSeek-R1-Zero 和 DeepSeek-R1 v DeepSeek-R1 的输出, 蒸馏了 6 个小模型开 源给社区 v 其中 32B 和 70B 模型 在多项能力上实现了 对标 OpenAI o1-mini 的效果。 15 DeepSeek的惊天动地事迹 2024.1.25: 发布DeepSeek-Coder 2024 近期:各行业开始研究部署... 1.DeepSeek简介 16 DeepSeek是谁?咱们通俗说一说...... 基于 Llama 、 Qwen 六个密集模型 (1.5b、7b、8b、 14b、32b、70b) 大师 徒弟 蒸馏版 训练 DeepSeek- R1- Zero DeepSeek- R1 蒸馏 满血版 DeepSeek-V3 671b 17 DeepSeek破圈席卷全球 运行机器 R1-1.5b 4GB+ 8GB+ 5GB 个人普通机 R1-7b 12GB+ 16GB+ 10GB 个人普通机 R1-8b 16GB+ 32GB+ 15GB 个人普通机 R1-14b 24GB+ 64GB+ 30GB 专用服务器 R1-32b 48GB+ 128GB+ 60GB GPU服务器 R1-70b 80GB+ 256GB+ 120GB GPU服务器 V3\R1-671B10 积分 | 57 页 | 38.75 MB | 5 月前3
2025面向工程审计行业的DeepSeek大模型应用指南-南京审计大学工程审计学院(45页 WORD).......................................32 5.1 工程审计问题相关法条自动检索................................................................................................. 32 5.1.1 工程审计问题相关法条自动检索概述 ............. ............................................ 32 5.1.2 工程审计问题相关法条自动检索实现 .............................................................................. 32 5.2 工程项目智慧造价................................ DeepSeek - R1 - 7B 对应的显卡略高 DeepSeek - R1 - 14B 12 核及以上 32GB 及 以上 15GB 以 上 需 16GB 及以上显存的显 卡,如 RTX 4090 或 A5000 DeepSeek - R1 - 32B 16 核及以上,例如 AMD Ryzen 9 或 Intel i9 处理器 64GB 及10 积分 | 59 页 | 1.06 MB | 1 天前3
华为:鲲鹏原生开发技术白皮书(6.0修订版)鲲鹏原生开发的核心技术理念 03 03 鲲鹏原生开发能力介绍 05 3.1 代码开发阶段 06 3.1.1 代码开发 06 3.1.2 代码优化 28 3.1.3 编译 30 3.1.4 调试 32 3.1.5 调优 37 3.2 流水线阶段 61 3.2.1 门禁检查 61 3.2.2 编译构建 66 3.2.3 调优 67 3.2.4 测试 68 3.2.5 版本发布 原生 Web/CDN openEuler 和毕昇 JDK 性能优化 压缩算法 NVMe SSD 原子写 KAE RSA 加解密 OVS 流表归一化 虚拟化调度优化 ExaGear AArch32 指令翻译软件 Gazelle 网络优化 OVS 流表网卡加速 vKAE 鲲鹏 GCC CFGO 反馈优化 高性能云盘优化 vCPU 热插拔 KAEzip 压缩解压缩优化 虚拟化 DPU 大数据 分布式存储 数据库 虚拟化 ARM 原生 HPC EC Turbo MySQL 可插拔在线 向量化分析引擎 Kbox 云手机容器 多瑙调度器 负载感知加速系统 智能写 Cache CRC32 指令优化 视频流引擎 多瑙调度平台 图分析算法 IO 直通 MySQL NUMA 调度优化 指令流引擎 机器学习算法 数据压紧 MySQL 可插拔线程池 元数据加速 MySQL 并行查询优化10 积分 | 112 页 | 17.64 MB | 5 月前3
电子AI+系列专题:复盘英伟达的AI发展之路2024 年的 785 亿元,对应 CAGR 达 45.11% 。 AI 芯片中 由于 GPU 通用型强,满足深度学习大量计算 的需求,因此 GPU 在训练负载中具有绝对优势。以 GPT-3 为例,在 32 位的单精度浮点数数据下,训练 阶段所需 GPU 数量为 1558 个,谷歌级应用推理阶段所 需 GPU 数量为 706315 个。 l 英伟达开辟 GPGPU 加速计算格局, GPU 架构演进及产品布局赋能 运算性能 ( TFLOPS ) 整型定点 运算性能 ( TOPS ) 显存 (GB) 显存带宽 (GB/s) 功耗 (W) Google TPU v4 2021 7nm - 275 275 32 1200 192 平头哥 含光 800 2021 12nm - - 825 - - 276 寒武纪 思元 370 MLU370-X8 2021 7nm 24 96 256 资料来源:英伟达 CUDA 文档,国信证券经济研究所整 理 资料来源: CSDN ,国信证券经济研究所整 理 l 《 AI 大语言模型的原理、演进及算力测算》 l 训练阶段:考虑采用精度为 32 位的单精度浮点数数据进行训练和推理。 以 A100 PC le 芯片为例( H100 PC le 芯片同理), GPT-3 训练所需 运算次 数为:样本 token 数 3000 亿个 *6*10 积分 | 30 页 | 1.27 MB | 5 月前3
共 140 条
- 1
- 2
- 3
- 4
- 5
- 6
- 14
