金融领域AI大模型和AGENT实践解决方案(22页 PPT)信息滞后。 4 大模型微调 ( Finetune) 方案 : 1. 收集整理垂类相关 的领域数据 / 企业 数据 / 专业数据; 2. 利用这些数据修正 (微调)大模型; 效果 : 1. 微调后的大模型, 更理解垂类应用要 求,性能更优; 2. 微调后的大模型, 事实性更准确,避 免了幻觉。 人工审核 Prompt 优化、反面案例、 COT 构建 模型微调 性能评估 原始训练集 专用训练集 微调后模型 模型上线 AI Agent 如何解决生成式大模型短板 Embedding 模型 通用大模型 垂直领域文档 5 大模型微调 ( 思维链 CoT) 方案 : 1. 微调数据中包括领域知识 及解题步骤(思维链); 2. 利用这些数据修正(微调) 大模型; 效果 : 1. 微调后的大模型,更理解 垂类应用要求,性能更优; 2. 微调后的大模型,事实性 微调后的大模型,事实性 更准确,避免了幻觉。 AI Agent 如何解决生成式大模型短板 微调数据(思维链) 微调效果: 6 联邦大模型 方案 : 1. 构建联邦大模型新范式,解 决数据稀缺 / 标注不足问题; 2. 利用联邦学习技术,在保护 数据隐私的前提下,合规合 法地利用手机、汽车等终端 设备上的私域数据; 效果 : 1. 联邦大模型,整体性能更优; 2. 联邦大模型,有效保护了私10 积分 | 22 页 | 2.32 MB | 1 月前3
从DeepSeek探讨大语言模型在建筑及能源行业的应用趋势和技术方法系统关键数据变量在一段时间内的平 均值和标准偏差 X6 系统关键数据变量在正常运行时的平 均值和标准偏差 X7 系统可能存在的状态选项 X8 回答格式要求 研究三:基于微调大语言模型的系统故障检测与诊断:模型微调 42/80 基于模板格式,自动填充相应内容,批量化生成用于大语言模型故障检测与诊断的提示词 from openai import OpenAI client=OpenAIO 研究三:基于微调大语言模型的系统故障检测与诊断:模型微调 43/80 {"prompt": "", "completion": " "} 对原始模型进行能力测试,结合标注信息使其自纠正错误诊断内容,构建语料,微调大模型 生成微调模型 模型微调数据集 1. 测试原模型能力 2. 模型的自我纠正 检测诊断精度 诊断错误的对话 大模型自我纠正 3. 模型微调 故障检测与诊断能 力测试提示词库 原始大模型 Accuracy(% ) Normal Fault I … 生成 研究三:基于微调大语言模型的系统故障检测与诊断:模型微调 10 积分 | 78 页 | 33.88 MB | 9 月前3
北大:DeepSeek-R1及类强推理模型开发解读具备强大推理能力与长文本思考能力,继开源来备受关注。 DeepSeek R1-Zero 和 R1 的出现再次证明了强化学习的潜力所在: R1-Zero 从基础模型开始构建,完全依赖强化学习,而不使用人类专家标注的监督微调( SFT ); 随着训练步骤增加,模型逐渐展现出长文本推理及长链推理能力; 随着推理路径增长,模型表现出自我修复和启发式搜索的能力; DeepSeek-R1 开创 RL 加持下强推理慢思考范式新边界 Compute Optimallycan be More Effective than Scaling Model Parameters Laws [1] 。 DeepSeek-R1 Zero: 无需监督微调 SFT ,纯强化学习驱动的强推理模型 DeepSeek-R1 技术剖析: DeepSeek-R1 Zero model 需要大量的计算资源,可能会复杂化整个流程 训练模板: 选择最简单的 Thinking Process , 直接观察到最直接的 RL 过程下的表现 DeepSeek-R1 Zero: 无需监督微调 SFT ,纯强化学习驱动的强推理模型 DeepSeek-R1 技术剖析: DeepSeek-R1 Zero10 积分 | 76 页 | 6.72 MB | 9 月前3
智能金融:AI驱动的金融变革(45页 PPT)意距离的依赖关系。 并行计算能力强: Transformer 架构支持并行计 算, 训练速度更快。 • 缺点:资源消耗大 上下文学习、指令微调、 扩展规律 (GPT3 、 GPT4…) 自然语言处理模型的演进 预训练语言模 型( PLM ) “ 预训练 - 微调” 学习范式 ( BERT、 GPT) 大语言模型 ( LLM ) 注意力 Attention 自注意力机制:使序列中的每个单词都能 Richard Sutton (强化学习之父 ,阿尔 伯塔大学 教授, DeepMind 科学家) 折扣因子 监督微调 强化学习 图源自《 ReFT: Reasoning with Reinforced Fine-Tuning 》 DeepSeek-R1 :监督微调 + 强化学习训练 高探索自由度 = 推理能力自我觉醒 (规则奖励 + 奖励模型) 纯强化学习训练 多阶段增强训练 R1-Zero 生成的 长思维链数据 综合性能 更强 R1 蒸馏 版 1.5B~32B 对 V3 模 型 监督 微调 混合数据 监督微调 60 万条 推理数据 模型蒸馏是一种将大型复杂模型(教师模型)的知识迁移到小型高效模型(学生模型)的模型压缩技术 ,其 核心目标是在保持模型性能的同时 ,显著降低模型的计算复杂度和存储需求20 积分 | 45 页 | 4.10 MB | 3 月前3
DeepSeek大模型赋能高校教学和科研2025进行微调或少 量微调的情况下完 成多场景任务 , 相当于 AI 完成 了“通识教育” 行业大模型 L1 是指那些针对特定行业或领域的大 模型 。 它们通常使用行业相关的 数 据进行预训练或微调, 以提高 在该 领域的性能和准确度,相当 于 AI 成 为“行业专家” 垂直大模型 L2 是指那些针对特定任务或场景的大 模型 。 它们通常使用任务相关的 数 据进行预训练或微调, 以提高 数据隐私与安全性 避免使用限制 定制化与灵活性 模型微调技术特点 ( 1 )领域针对性强: 经过微调的 模 型在特定领域的表现会有显著提 升 , 能够更好地理解和处理该领域 的专业 问题; ( 2 )模型适应性优化: 通过微调 可 以调整模型的参数 ,使其更符合 特定 任务的要求 ,提高输出的准确 性和稳 定性。 模型微调和本地知识库 使用海量数据进行预训练得到的基础 大模型 不 够精准。 解决方案: ( 1 )模型微调;( 2 )本地知识 库 模型微调技术要点 ( 1 )高质量的标注数据: 标注数 据 的质量直接影响微调的效果 , 需 要确 保数据标注的准确性和一致性。 ( 2 )合理的微调策略: 选择合适 的 微调算法和超参数 ,避免过拟合 或欠 拟合问题。 4.4 本地部署大模型方 案 在监督微调阶段 ,模型会学习一个 指令 - 响应( Instruction-Response10 积分 | 123 页 | 15.88 MB | 9 月前3
厦大团队:DeepSeek大模型赋能政府数字化转型据上进行训练, 以寻找特 征并发现 规律 ,进而形成可“举一 反三” 的强 大泛化能力 ,可在不 进行微调或少 量微调的情况下完 成多场景任务 , 相当于 AI 完成 了“通识教育” 行业大模型 L1 是指那些针对特定行业或领域的大 模型 。 它们通常使用行业相关的 数 据进行预训练或微调, 以提高 在该 领域的性能和准确度,相当 于 AI 成 为“行业专家” 垂直大模型 L2 是指那些针对特定任务或场景的大 是指那些针对特定任务或场景的大 模型 。 它们通常使用任务相关的 数 据进行预训练或微调, 以提高 在该 任务上的性能和效果 1.4 大模型的分 类 按照应用领域的不同 ,大模型主要可以分为 L0 、 L1 、 L2 三个 层级 OpenAI 定义推理模型 在 OpenAI 的官网上 , OpenAI 定义推理 模 型是在回答之前进行思考 , 并在回复用 户 之前 ,在内部生成一长串的思维链过 闭环管理机制 定制化与灵活性 模型微调技术要点 ( 1 ) 高质量的标注数据: 标注数据 的质量直接影响微调的效果 , 需要确 保数据标注的准确性和一致性 ( 2 ) 合理的微调策略: 选择合适的 微调算法和超参数 ,避免过拟合或欠 拟合问题 模型微调技术特点 ( 1 ) 领域针对性强: 经过微调的模 型在特定领域的表现会有显著提升10 积分 | 121 页 | 13.42 MB | 8 月前3
华为昇腾DeepSeek解决方案极致性能、稳定可靠的 AI 集群 • 深度开放的平台和生态 • 极致的端到端性能效率优化 关注便捷、易用、性价比的平台 • 开箱即用的强化学习套件 • 兼顾成本与性能的蒸馏 / 微调方 案 • 便捷的部署、敏捷业务上线 DeepSeek-V3-671B DeepSeek-R1-671B DeepSeek-R1-Distill-Qwen-32B DeepS +ISV/ 云,商业模式逐渐成熟 DeepSeek 能力提升成为各行业生产力工具,加速推理落地千行 百业 DeepSeek 催熟大模型落地技术, 降低推理部署门 槛 行业大模型 大量行业数据 监督微调 SFT 基础模型 Llama 、 Qwen 、 … 开箱即用的一体机,加速大模型应用落地 华为云 移动云 电信天翼云 联通云 京东云 基础模型 (DeepSeek/ Llama/Qwen/…) AWS 微软 Azure 部署更高效 月级调优 周 / 天级优 化 数据依赖降低 高质量数据 生成数据 算法依赖降低 高端人才 开源 + 蒸 馏 监督微调 SFT NVIDIA Hugging Face GitHub 更多行业 高质量数据生成 强化学习 主流云服务商已支持 DS 覆盖公 / 私有云部署 模型蒸馏 - 模型小型化0 积分 | 32 页 | 2.52 MB | 9 月前3
电力人工智能多模态大模型创新技术及应用方案(35页 PPT)虚拟现实 自动驾驶 生态 PyTorch TensorFlow MindScope 训练算法 无监督预训练 强化学习 前沿探索阶段 底层计算库: CUDA 、 CANN( 华为 ) 有监督微调 对比学习 * 互联网爬取、规模大 LLM 预训练 多维并行算法 状态监测、任务调度 语言通用模型: DeepSeek-R1 统一端:解码架构 统一预训练框架 电力通用任务 布 式 并 行 训练 提 供电 力多模 态 基 础 模 型 模型并行 流水线并行 支持分布式并行训练 后训练:能力增强与偏好对齐 指令微调技术 人类反馈强化学习 多模态统一编码 关键特征抽取 图保始码算法 动态分辨率 视须关睫帧态知 多场景协间增强 真实龄据感知 电气信号始码 高雌特征映射 电气词表扩充 提 供 隐私保护 MD A. MD1 B. MD 1 、数据生成:纯文本数据制作管 线 构建高效的 半自动化数据制作管线,为预训练和下游任务微调提供大规模、高质量的电力领域文本数据支撑 15/37 质量考核 数据清洗 存储高质量数据 提示词 十 种子数据 提供自动 化标注 提供高质 量数据 指令 回答 数据 标注 构10 积分 | 35 页 | 7.61 MB | 22 天前3
微众银行大模型助效研发实践(28页 PPT)2-3G 大小(前端开发团队也有在做微调, 但只针对公共组件的使用上) 公共组件使用文档 真正的组件文档大小并不大,在 700 多 M ,在开发过程中便于模型能理解 公司内部的基本组件并知道如何使用; 同时将公共组件调用生成问答对更进 准的让模型理解 代码解释及关联代码 首先把所有代码把无注释的代码先生成一份代码注释 、然后将代码注释及代 码用于做微调 大模型在研发效能上的初步探索 o o o 单元测试案例及代码 提取代码中的单元测试案例 、以及单元测试的代码, 更精准的做代码微 调 微调模型的试验之路是否可行 困难 前期辅助编程方案并无法在研发流程中解决开发太多的痛点。 大模型辅助研发遇到的困难 需求分析 10% 好的需求分析工作对后期的研发有极大帮助 方案设计 8% 方案设计是系统稳定性 、健壮性 、可扩展性、 安全性等非功能的重要环节 开源模型迭代速度快 几乎每个月都有新模型出来 研发知识迭代影响 几乎每周都有版本更新 模型 Token 数限制 尤其是代码上下文数据巨大 微调服务器成本高昂 微调需要独占 GPU 资源,且巨大 2024-04-17 Mistral 8X22B 2024-04-24 Qwen-1 .5 110B 2024-05-13 Yi-110 积分 | 28 页 | 1.40 MB | 1 月前3
山东大学:DeepSeek 应用与部署邀请码: z0sI0urY 邀请链接: https://cloud.siliconflow.cn/i/z0sI0urY 通过创建 API key 调 用 模型微调工程 u 对话模型微调 u 生图模型微调 华为云模型微调 老师模型 模型蒸馏工程 DeepSeek : 推理模型 | 推理能力 蒸馏 DeepSeek 蒸馏模 型 学生模型 小模型:相当于一枚小学生 ,知识面非常有限 蒸馏、微调、 RAG 微调: 又叫精调 ,相当于学生意识到自己某门课有 短 板 ,然后自己找参考书恶补了一下 ,从而补上短 板 蒸馏: 是学生通过模仿老师的解题思路 ,达到和老 师 相似的知识水平。 RAG : 直译过来叫做“检索增强生成 ” 。 相当于这题我不会, 但是我有“小抄 ” , 我回 答的时候, 就看一眼小抄, 然后再综合我脑子里的已有知识, 进行回答。 蒸馏、微调、 RAG10 积分 | 79 页 | 6.52 MB | 9 月前3
共 86 条
- 1
- 2
- 3
- 4
- 5
- 6
- 9
