积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部人工智能(5)技术工具(5)

语言

全部中文(简体)(5)

格式

全部PPT文档 PPT(3)PDF文档 PDF(2)
 
本次搜索耗时 0.015 秒,为您找到相关结果约 5 个.
  • 全部
  • 人工智能
  • 技术工具
  • 全部
  • 中文(简体)
  • 全部
  • PPT文档 PPT
  • PDF文档 PDF
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告

    Test-Time Scaling 和 Train-Time Scaling 提升模型的推理能力? ➢ 得益于纯大规模强化学习,DeepSeek-R1 具备强大推理能力与长文本思考能力,继开源来备受关注。 ➢ DeepSeek R1-Zero 和 R1的出现再次证明了强化学习的潜力所在: ➢ R1-Zero 从基础模型开始构建,完全依赖强化学习,而不使用人类专家标注的监督微调(SFT); ➢ Moonshot 32 技术对比讨论:Kimi K1.5 vs. DeepSeek-R1 Comparison Kimi K1.5 Main Result DS-R1 Main Result ➢ 二者都关注RL的方法带来的提升,MCTS 和 PRM 没有被使用 (Reward Hacking 的考虑) ➢ MCTS 是一种 Structure, A* 也是 Structure, 人为加入 Inductive Kimi K1.5 中 Long2Short 方法指的是将长文本 CoT 模型的知识迁移到短文本 CoT 模型,本质上是一种「蒸馏」, 不过目标和策略更多样,不仅要性能,还要 token 效率;更多地关注对教师模型推理策略的学习,而不仅是输出。 ➢ S1 模型通过少成本获得超过o1-preview的表现: ➢ 高质量推理数据构建:s1K数据集精心挑选了1000个涵盖数学竞赛、博士级科学问题及奥林匹克竞赛题目等,这些问题经
    10 积分 | 76 页 | 8.39 MB | 6 月前
    3
  • ppt文档 华为昇腾DeepSeek解决方案

    2025 2026 训练的算力需求将持续增长,算力结构从“预训练为主” 走向 “预训练 + 后训练 / 二次训练” 关注高效、稳定、开放的底座 • 极致性能、稳定可靠的 AI 集群 • 深度开放的平台和生态 • 极致的端到端性能效率优化 关注便捷、易用、性价比的平台 • 开箱即用的强化学习套件 • 兼顾成本与性能的蒸馏 / 微调方 案 • 便捷的部署、敏捷业务上线
    0 积分 | 32 页 | 2.52 MB | 5 月前
    3
  • ppt文档 从智慧教育到智慧课堂:理论、规范与实践

    利用数据分析和在线工具,促进教师对学生绩 效产生新的理解。  从利用技术帮助学习,转变为利用技术回答问 题:学生学习到了什么?我可以为他提供什么 帮助?  利用开放式学习工具对资源社区进 行管理  教师能够更加关注学习结果。  教育者开发并使用工具。  降低成本  集中化设施更加易于维护;  软件易于升级维护  基本可以放弃桌面端的支持需求。  提高可靠性、利用性和产出。  有能力运行最新的应用
    10 积分 | 74 页 | 10.39 MB | 6 月前
    3
  • ppt文档 DeepSeek大模型赋能高校教学和科研2025

    大模型发端于 Sora 。 2024 年 2 月 ,美国的 Open AI 发布了全球第一款文生视频大模型 Sora (这 里的“文生视频”是指由输入的文本内容生成相应的视频) , 迅速引起了业界的广泛关注和讨论 高校教师怎么用? □ 借助可灵 AI 工具 ,根据文本内容自动生成高质量的 视频 5.5 视频类 AIGC 应用实 践 案例: 使用腾讯智影生成数字人播报视频(可以用于制作高校教学视频)
    10 积分 | 123 页 | 15.88 MB | 6 月前
    3
  • pdf文档 英特尔-工业人工智能白皮书2025年版

    展开来讲,大模型技术有以下几项基本特征: 1. 普遍基于 Transformer 架构。Transformer 架构通过引入自注意力 (Self-Attention) 机制,在处理序列数据时,能同时 关注输入序列的所有元素,并直接建立任意两个元素之间的联系,从而捕捉序列中的长距离依赖关系,实现对输入序列的 高效处理和理解。由于不依赖序列顺序,Transformer 架构在模型训练和推理时的并行处理能力更强,效率更高。
    0 积分 | 82 页 | 5.13 MB | 5 月前
    3
共 5 条
  • 1
前往
页
相关搜索词
2025DeepSeekR1Kimi1.5及类推理模型推理模型开发解读报告华为解决方案解决方案智慧教育课堂理论规范实践赋能高校教学科研英特特尔英特尔工业人工智能人工智能白皮皮书白皮书年版
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩