AI跃迁派:2025年DeepSeek零基础完全指南用户描述理想沙发→AI 生成 3D 模型→工厂 48 小时定制交付 ⚫ 农民用方言描述病虫害→AI 诊断并调度无人机精准施药 ②认知增强服务 脑力租赁市场:普通人可出租 AI 训练能力(如标注数据获得收益) 教育革命: ⚫ 脑机接口实现“技能直输”,1 小时掌握基础编程 ⚫ AI 导师跟踪学习轨迹,动态调整教学策略 ③元宇宙基建 数字孪生引擎:城市管理者可“预演”政策实施效果 反误导机制:自动检测并修正“幻觉输出” 案例:医疗 AI 拒绝提供安乐死指导 ②法律监管层 ⚫ 数字身份法:赋予 AI 实体“有限法律责任” ⚫ 数据确权:建立个人“数据银行”管理信息收益 ③社会共识层 ⚫ 人机协作认证:重要决策需人类签署“知情同意书” ⚫ 文化适配: 1. 伊斯兰地区 AI 自动遵循“清真原则” 2. 佛教国家禁止 AI 讨论轮回转世10 积分 | 21 页 | 1.01 MB | 7 月前3
2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告随着模型尺寸逐渐增大,预训练阶段参数 Scaling Up 带来的边际收益开始递减;如果想要深度提升模 型推理能力和长程问题能力,基于RL的 Post-Training 将会成为下一个突破点。 ➢ 自回归模型在数学推理问题上很难进步的一点在于没有办法进行回答的自主修正,如果仅是依靠生成 式方法和扩大参数规模,那么在数学推理任务上带来的收益不会太大。所以需要寻找额外的 Scaling Laws [1]。 到推理背后的规律,获得的泛化性和推理 表现上界更高 ➢ SFT 主要负责记忆而很难进行OOD泛化,基于ORM的RL泛化能力较好 [1] ➢ SFT规范模型输出格式,使得后续的RL可以获得更高的收益 ➢ 随着强推理能力复现的兴起,社区也有很多工作比较 LongCoT 长文本思维链的蒸馏效果 ➢ Scaling up verifiable reward是long cot的核心。 ➢ 小模型10 积分 | 76 页 | 8.39 MB | 7 月前3
华为昇腾DeepSeek解决方案低秩压缩减少缓存 DeepSeekMoE 更稀疏 256 选 8+1 训练精度 PP 并行算法 强化学习 Attention MOE Token 预测 业界 LLM 大模 型 核心 收益效果 Huawei Proprietary - Restricted Distribution DeepSeek 9 大模型从技术摸高走向技术摸高 + 工程创新并行 ,训练需求持续增 长 ①0 积分 | 32 页 | 2.52 MB | 7 月前3
共 3 条
- 1
