山东大学:DeepSeek 应用与部署WSL2 Python 3.8+ ,推荐使用 Anaconda/Mini cond a 管理环境 DeepSeek 本地部署 - 硬件环境准 备 DeepSeek 本地部署 - 部署办法 方法 1 :使用 Hugging Face Transformers 方法 2 :使用 vLLM 加速推 理 方法 3 : Docker 部 署 Anything10 积分 | 79 页 | 6.52 MB | 5 月前3
2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告Scaling Up 带来的边际收益开始递减;如果想要深度提升模 型推理能力和长程问题能力,基于RL的 Post-Training 将会成为下一个突破点。 ➢ 自回归模型在数学推理问题上很难进步的一点在于没有办法进行回答的自主修正,如果仅是依靠生成 式方法和扩大参数规模,那么在数学推理任务上带来的收益不会太大。所以需要寻找额外的 Scaling Laws [1]。 [1] Training Verifiers 尽管可以完成复杂的推理,但是仍然受限于一些对于人类来 说很简单的任务(例如,逆转诅咒),泛化能力较弱: ➢ 本质上在于 LLM 的思考范式仍然是静态,非过程性的; ➢ 一些看似复杂的任务,实则在互联网上有相近的解决办法, 在训练语料中有所蕴含(Hypothesis: Depends purely on Task Similarity instead of Task Complexity); ➢人类的Abstraction10 积分 | 76 页 | 8.39 MB | 6 月前3
共 2 条
- 1
