浙江大学-DeepSeek模型优势:算力、成本角度解读2025岭 ” 国 际 国 内 发布时间 G P U 时 ( 小 时 ) 训练成本 ( 美元 ) Llama 3.1 2024 年 7 月 3.1*107 6.2*107 DeepSeek v3 2024 年 12 月 2.8*106 5.6*106 DeepSeek V3 公开的单次极低预训练成 本 DeepSeek 全部训练单次成本: 5,576,000 美 元 单张 H800 H800 GPU 每小时租赁成本: 2 美 元 泛大 模型 / 指标 DeepSeek V1 DeepSeek V2 DeepSeek V3 Llama 3.1 发布时间 2024 年 1 月 2024 年 6 月 2024 年 12 月 2024 年 7 月 训练 Token 2 T 8.1 T 14.8 T 15T 模型规模 7B 、 67B 236B/ 激活 21B 671B/ 华为等算力公司提供高算力密度 ■ 个人预测 Al 竞赛结果 ■ 以中国的工业化水平,站着把 Al 的钱给挣了。 ■ “健身可以让 SB 跟你好好说话”→ ■“ 突破模型、算力卡脖子可以让 A 国跟咋们好好说话” DeepSeek V3 未来 展望10 积分 | 23 页 | 7.53 MB | 5 月前3
DeepSeek大模型赋能高校教学和科研2025DeepSeek 每个人都可以读懂的大模型科普报告(高校篇) DeepSeek 大模型赋能高校教学和科 研 厦门大学大数据教学团队作品 2025 年 2 月 25 日 厦门大学 林子雨 副教授 国 内 高 校 大 数 据 教 学 的 重 要 贡 献 者 团队负责人 :林子雨 副教授 年轻力量: 核心成员全部 46 周岁以下 结构合理: 教学型、 科研型、 实验工程师 专注专业: 从 2013 NVIDIA A100/H100 显卡的服务器 , 市场价格约 80-120 万元 • 配套设备 :液冷系统、 冗余电源等附加成本约 15-25 万元 2. 运维成本 • 电费 :满载功耗约 6000W , 年电费约 5-8 万元(按工业电价 1.2 元 / 度计算) • 维护: 专业工程师团队年成本约 30-50 万元 4.4 本地部署大模型方 案 高校科研基础设施不足 ,算力短 Q2_K_XL 模型的推理速度达到 9.1 tokens/s , 实现了千亿级模型的 “家庭化” 运行 传统方案: 8 卡 A100 服务器成本超百万元 ,按需计费每小时数千元 清华方案: 单卡 RTX 4090 方案 ,整机成本约 2 万元 ,功耗 80W 4.4 本地部署大模型方 案 5.1 AIGC 概述 5.2 文本类 AIGC 应用实践 5.3 图片类 AIGC 应用实践 5.4 语音类 AIGC10 积分 | 123 页 | 15.88 MB | 6 月前3
AI跃迁派:2025年DeepSeek零基础完全指南推理速度提升 3 倍,生成文字速度从 20 字/秒提升至 60 字/秒 行业重塑: ⚫ 迫使国际巨头降价(如 AnthropicClaude 降价 30%) ⚫ 首款登顶全球 140 国应用榜的国产 AI 模型 国家战略: ⚫ 突破“卡脖子”技术:仅用 2000 块国产昇腾芯片完成训练 ⚫ 构建自主技术生态:带动华为昇腾、寒武纪等国产芯片产业发展 3.功能定位:你的全能数字助手 像水电一样触手可及 DeepSeek 通过两大革新打破技术壁垒: 1.白菜价训练:用 2000 块国产昇腾芯片就能训练专业模型,大学生也能参与 AI 开发 2.手机端运行:1.5B 压缩版模型在千元机上流畅运行,山区医生可用 AI 辅助诊断 三、安装与使用全攻略 1.多端部署指南:全平台无障碍接入 DeepSeek 提供网页版、APP、微信小程序、电脑版四大入口,满足不同场景需求: 错误:一次性提问“如何从零开始做小红书账号?” 修正:分步拆解“冷启动→爆款公式→变现路径” 3.忽略背景 错误:“推荐旅游城市”→可能推荐南极科考站 修正:“预算 5000 元/3 天/亲子游,推荐 5 个国内城市并说明交通和住宿方案” 4.专业术语滥用 错误:“用 MoE 架构优化输出”→普通人难以理解 修正:“让不同专家模块共同解决这个问题”10 积分 | 21 页 | 1.01 MB | 6 月前3
2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告为避免奖励模型的过度优化, 标准做法是在每个词元的奖励中添加与参考模型的KL惩罚项 23 DeepSeek-R1 技术剖析:GRPO 赋能RL-Scale ➢From PPO to GRPO: ➢ PPO的价值函数通常是与策略模型规模相当的独立模型,这带来了巨大的内存和计算负担。 ➢ 奖励模型通常仅对输出序列的最后一个词元分配奖励,导致逐词元价值函数的训练复杂化。 ➢ GRPO:无需像 𝑜𝐺},奖励模型为 每个输出生成奖励{𝑟1, 𝑟2, 𝑟3, … , 𝑟𝐺} 。随后,奖励通过减去组内均值并除以标准差进行归一化。结果监督将 归一化后的奖励分配给每个输出的末尾词元,并将所有词元的优势设为该归一化奖励; ➢ 基于过程监督的GRPO: 结果监督仅提供输出末尾的奖励,对复杂数学任务的策略指导不足 ➢ 对问题 q 和采样输出 {𝑜1, 𝑜2, 𝑜3, … , 𝑜 𝑟𝐺 𝑖𝑛𝑑𝑒𝑥 1 , 𝑟𝐺 𝑖𝑛𝑑𝑒𝑥 2 , … , 𝑟𝐺 𝑖𝑛𝑑𝑒𝑥 𝐾𝐺 } 其中𝑖𝑛𝑑𝑒𝑥 𝑗 是第 𝑗步的末 尾词元索引, 𝐾𝑖是第 𝑖 个输出的总步数。归一化后,优势值为后续步骤归一化奖励的累加和 DeepSeekMath https://arxiv.org/pdf/2402.03300 基于结果监督的GRPO优势值估计10 积分 | 76 页 | 8.39 MB | 6 月前3
山东大学:DeepSeek 应用与部署3. 高级能力层 复杂系统建模与自主决策 ,包括数字孪生仿真系统(构建物理于数字融合虚拟环境 模拟天气等) 、 多智能体协同优化(将每个个体作为智能体通过联邦学习模拟群体行为) 和元认 知调 控机制(实施监控自身决策、 动态分配资源、 自动触发行为) 。 • 4. 终极能力层 自主进化与创造性突破 ,包括概念空间探索(通过对抗网络探索新合金成分等) 、 范式转移预警(监控跨领域知识流、10 积分 | 79 页 | 6.52 MB | 5 月前3
华为昇腾DeepSeek解决方案deepseek 蒸 馏模型训推 金融助手、智能 风控、文档审核 办公助手,智能 写作,智能搜索 AI 工作站,本地 办公应用 学生 / 开发者实 践 硅基流动一体机 伙伴 元景一体机 25Q1 25Q1 昇腾与 PyTorch 开源社区紧密合作, 共促 AI 生态创新发展 华为在计算机视觉、自然语言处理、语音识别等领域进行了广 泛的研究,并且在大模型领域也积累了成熟的研究经验。我们0 积分 | 32 页 | 2.52 MB | 5 月前3
共 6 条
- 1
