山东大学:DeepSeek 应用与部署Preference (嵌入偏好):使用 AnythingLLM Embedder 嵌入工具 ,文档文本会在 AnythingLLM 的 实例上私密嵌入 ,文本数据的处理和转换在本地进行 ,不会泄露给第三方。 • Vector Database (向 量数据库):使用 LanceDB 作为向量数据库, 向量和文档文本都存储在 AnythingLLM 实例上 ,进一步确保数据的私密性和安全性。10 积分 | 79 页 | 6.52 MB | 5 月前3
AI跃迁派:2025年DeepSeek零基础完全指南工厂质检员用 AR 眼镜识别 0.01mm 级零件缺陷 ③分布式群体智能 ⚫ 区块链+AI:建立去中心化训练网络,数据贡献者可获得智能代币 ⚫ 联邦学习突破:医院间共享医疗模型但不泄露患者隐私 案例实证: 10 万部手机联合训练出地震预警模型,准确率超专业设备 2.产业融合:重塑万亿级市场格局 DeepSeek 将成为“产业操作系统”,催生三大新兴经济形态:10 积分 | 21 页 | 1.01 MB | 6 月前3
2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告https://arxiv.org/abs/2406.06144 审计对齐 Deliberative Alignment Challenges: (1) 当前的大型语言模型(LLMs)容易被诱导泄露有害内容;(2) 拒绝合法请 求(过度拒绝);(3) 仍然容易受到越狱攻击。 原因: ➢ LLMs 必须使用固定的计算资源即时响应用户请求; ➢ 当前的对齐方法(如SFT和RLHF)鼓励LL10 积分 | 76 页 | 8.39 MB | 6 月前3
DeepSeek大模型赋能高校教学和科研2025所以实时 性可以更好 减少模型幻觉 由于提问结合了业务知识 ,所以减少了模型的幻觉, 即减少了模型的胡说八道 保护数据隐私 由于日常的业务知识是保存到本地的 , 所以减少 信 息泄露的风险 无需重新训练 不用重新训练模型 ,微调模型降低了成 本 4.4 本地部署大模型方 案 n 本地知识库的优点 步骤 安 装 Ollama 下载 DeepSeek R1 运行 DeepSeek10 积分 | 123 页 | 15.88 MB | 6 月前3
共 4 条
- 1
