2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告Test-Time Scaling 和 Train-Time Scaling 提升模型的推理能力? ➢ 得益于纯大规模强化学习,DeepSeek-R1 具备强大推理能力与长文本思考能力,继开源来备受关注。 ➢ DeepSeek R1-Zero 和 R1的出现再次证明了强化学习的潜力所在: ➢ R1-Zero 从基础模型开始构建,完全依赖强化学习,而不使用人类专家标注的监督微调(SFT); ➢ Moonshot 32 技术对比讨论:Kimi K1.5 vs. DeepSeek-R1 Comparison Kimi K1.5 Main Result DS-R1 Main Result ➢ 二者都关注RL的方法带来的提升,MCTS 和 PRM 没有被使用 (Reward Hacking 的考虑) ➢ MCTS 是一种 Structure, A* 也是 Structure, 人为加入 Inductive Kimi K1.5 中 Long2Short 方法指的是将长文本 CoT 模型的知识迁移到短文本 CoT 模型,本质上是一种「蒸馏」, 不过目标和策略更多样,不仅要性能,还要 token 效率;更多地关注对教师模型推理策略的学习,而不仅是输出。 ➢ S1 模型通过少成本获得超过o1-preview的表现: ➢ 高质量推理数据构建:s1K数据集精心挑选了1000个涵盖数学竞赛、博士级科学问题及奥林匹克竞赛题目等,这些问题经10 积分 | 76 页 | 8.39 MB | 6 月前3
华为昇腾DeepSeek解决方案2025 2026 训练的算力需求将持续增长,算力结构从“预训练为主” 走向 “预训练 + 后训练 / 二次训练” 关注高效、稳定、开放的底座 • 极致性能、稳定可靠的 AI 集群 • 深度开放的平台和生态 • 极致的端到端性能效率优化 关注便捷、易用、性价比的平台 • 开箱即用的强化学习套件 • 兼顾成本与性能的蒸馏 / 微调方 案 • 便捷的部署、敏捷业务上线0 积分 | 32 页 | 2.52 MB | 5 月前3
从智慧教育到智慧课堂:理论、规范与实践利用数据分析和在线工具,促进教师对学生绩 效产生新的理解。 从利用技术帮助学习,转变为利用技术回答问 题:学生学习到了什么?我可以为他提供什么 帮助? 利用开放式学习工具对资源社区进 行管理 教师能够更加关注学习结果。 教育者开发并使用工具。 降低成本 集中化设施更加易于维护; 软件易于升级维护 基本可以放弃桌面端的支持需求。 提高可靠性、利用性和产出。 有能力运行最新的应用10 积分 | 74 页 | 10.39 MB | 6 月前3
DeepSeek大模型赋能高校教学和科研2025大模型发端于 Sora 。 2024 年 2 月 ,美国的 Open AI 发布了全球第一款文生视频大模型 Sora (这 里的“文生视频”是指由输入的文本内容生成相应的视频) , 迅速引起了业界的广泛关注和讨论 高校教师怎么用? □ 借助可灵 AI 工具 ,根据文本内容自动生成高质量的 视频 5.5 视频类 AIGC 应用实 践 案例: 使用腾讯智影生成数字人播报视频(可以用于制作高校教学视频)10 积分 | 123 页 | 15.88 MB | 6 月前3
英特尔-工业人工智能白皮书2025年版展开来讲,大模型技术有以下几项基本特征: 1. 普遍基于 Transformer 架构。Transformer 架构通过引入自注意力 (Self-Attention) 机制,在处理序列数据时,能同时 关注输入序列的所有元素,并直接建立任意两个元素之间的联系,从而捕捉序列中的长距离依赖关系,实现对输入序列的 高效处理和理解。由于不依赖序列顺序,Transformer 架构在模型训练和推理时的并行处理能力更强,效率更高。0 积分 | 82 页 | 5.13 MB | 5 月前3
共 5 条
- 1
