ppt文档 Deepseek在药企研发领域的本地化部署和应用场景 VIP文档

2.29 MB 33 页 0 下载 22 浏览 0 评论 0 收藏
语言 格式 评分
中文(简体)
.pptx
3
概览
Deepseek 在药企研发领域的本 地 化部署和应用场景 智慧芽生物医药 2025 年 03 月 智慧芽 01 大模型的发展阶段和 deepseek 02 Deepseek-R1 在药企的本地化部 署 03 芽仔与 Deepseek-R1 对接 04 Al 融入智慧芽生物医药产品 智慧芽 @LS- GTM 智 慧 芽 2 2022.12 2023.06 2023.12 2024.06 2025.01 时 间 资料来源:中文大模型基准测评 2024 年度报告 (2025.01.08) 深化期 ·OpenAI 发 布 0 1 , 强 化 学 习 新 范 式 , 实现推理等复杂能力上的重大突破。 Claude3.5-Sonnet 发 布 ,在 代 码 和 Agent 能力上掀起效率革命。 · ChatGPT 上 线 实 时 视 频 能 力 ,深 入 语 音 视 觉 实 时 多 模 态 应 用 场 景 。 · 国内推理模型迅速跟进。 DeepSeek-R1 、 QwQ-32B-Preview 、 Kimi-k1.5 、 GLM-Zero 、 Skywork-o1 、 Step R- mini 、 讯飞星火 X1 等模型密集发布。 国内模型性能持续提升。 DeepSeek-V3 、 Qwen2.5 、 豆包 -Pro 、 混元 -Turbo 与 GLM-4-Plus 等系列模型综合能力上持续 提升。 × 繁 荣 期 OpenAI 发 布 Sora, 极 大 拓 展 了 AI 在 视 频领 域 的想 象 力。 · GPT-40 、 CIaude3.5 、 Gemin11.5 、 Llama3 发 布 , 海 外 进 入“一超 多 强 ”的 竞 争 格 局 。 · 国 内 多 模 态 领 域 进 展 迅 速 , 在 部 分 领 域 领 先 海 外 。视 频 生 成 模 型 可 灵 AI 、 海螺视频、 Vidu 、 PixVerse 等 模 型 陆 续 发布 , 并在 海 外取 得 较大 应 用进 展 。 · 国 内 通 用 模 型 持 续 提 升 。 Qwen2.5 、 文心 4 . 0 、 GLM4 、 商量 5 . 5 等通用 模 型 陆续 更 新。 跃进期 ·Llama2 开 源 ,极 大 助 力 全 球 大 模 型 开发者生态 。 ·GPT-4 Turbo 、 Gemini 等 海 外 大 模 型 发 布, 继 续提 升 模型 性 能。 ·Midjourney 发布 5.2 Stable Diffusion XL 发布 国内闭源大模型快速发展。 豆包、混元、 商量 3.0 、盘古 3.0 、 AndesGPT 、 BlueLM 、 星火 3.0 、 Kimi Chat 等陆续发布。 · 国 内 开 源 生 态 爆 发 。 Balchuan 、 Qwen 、 InternLM 、 ChatGLM3 、 YI-34B 等系列模型引领开源热潮。 的 准 备 期 ·ChatGPT 发 布 ,全 球 范 围 内 迅 速 形 成 大 模 型共 识 。 ·GPT4 发 布 ,进 一 步掀起大模型研发 热 潮 。 · 国内快速跟进大模型研发。文 心 一 言 1.0 、通 义 千 问 、 讯 飞 星 火 、 3 6 0 智 脑 、 ChatGLM 等首批模型相继发布。 大模型的发展阶段 智慧芽 @LS- GTM 智 慧 芽 关 键 进 展 3 o Deepseek 出圈引爆全行业的原因 ? · 基础能力:进入推理模型阶段,跻身全球第一梯队 · 推理能力跃升: DeepSeek 大模型核心技术突破,实现复杂推理任务的精准处理与高效执行,覆盖 多模态场景应用。 · 国际竞争力对标:模型综合性能跃居全球第一梯队,技术指标与国际顶尖水平 ( 如 GPT 系列、 Claude 等 ) 直接对标,奠定国产大模型的行业标杆地位。 · 加 分 项 :开 源、低成本、国产化 nature nature>news>article NEWS| 23January 2025 China's cheap,open Al model DeepSeek thrills scienti DeepSeek-RIperforms reasoning tasksat the same level asOpenAI'sol-and isopen for researchersto examine. By Elizabeth Gibney Krenn."Thisisa dramatic difference which will cel Challenge models Rlis the part ofaboomin Chinese largelanguage DeepSeek emerged from relative obscurity last m outperformed major rivals,despite being built on cost around $6million to rent the hardware neede of$60million for Meta's Llama 3.1405B,which us es the computing resources.×Q 译文: 进人翻泽页面 专家估计,租用训练模型所需的硬件成本约 为 600 万美元,而 Meta 的 Lama 3.14058 则 需要 6000 万美元以上,而后者使用的 计算 资源是前者的 11 倍。 A 为你提供母语级高精翻译 免费体验》 ind, V3,which e that it Ipwards China's cheap.OenALmodel DeepSock thrils sclentst with the model.An"experiment that cost more than E300 with ol,cost less than $10 with R1,"says 2025La81547 Ciascheap.openAImosi DeepSaktrds scnsss 2025/1281547 Alhallucinations can'tbe stopped-but these techniquescan limit their damage 智慧芽 智慧芽 @LS- GTM 4 筋 京始前平台 动 她米 N 附大 等 A 附大 理白练 第三方乘道 AaMN 火 山 0 出元建 阿 白 Moly R1( 向量智能 )) 本地部署 · 打破垄断: R1 版以低成本和开源特性打破以往头部企业垄断局面。 · 价格优势: DeepSeek-R1 的 API 定价仅为行业均价的 1/10, 推动了中小型企业低成本接入 Al, 对 各 个行业产生了积极影响。 · 创新:重新定义了芯片和算力对大模型的影响。 · Deepseek 的 三 种 使 用 方 式 : 在 软 件 系 统 中 调 用 官 方 API 、 模 型 微 调 、 直 接 使 用 。 网页 APP (IOS/Andriod) 资料来源: AI 肖睿团队,北京大学 -DeepSeek 原理与落地应用 智慧芽 @LS-GTM o Deepseek 对行业产生巨大影 响 智慧芽 DeepSeek 5 01 大模型的发展阶段和 deepseek 02 Deepseek-R1 在药企的本地化部 署 03 芽仔与 Deepseek-R1 对接 04 Al 融入智慧芽生物医药产品 智慧芽 6 Model Base Model Model Download DeepSeek-R1-Distill-Qwen-1.5B Qwen2.5-Math-1.5B HuggingFace ModelScope 蒸馏模型,能力稍弱 实际上是增加了推理能力的 Qwen 模型和 Llama 模型, 严 格 来 讲 不 能 称 为 DeepSeek 模 型 ( 市场上 有 误 解 , 厂 商 有 误 导, Ollama 工具的模型选 项中也有误导 ) DeepSeek-R1-Distill-Qwen-7B Qwen2.5-Math-7B HuggingFace ModelScope DeepSeek-R1-Distill-Llama-8B Llama-3.1-8B HuggingFace ModelScope DeepSeek-R1-Distill-Qwen-14B Qwen2.5-14B HuggingFace ModelScope DeepSeek-R1-Distill-Qwen-32B Qwen2.5-32B HuggingFace ModelScope DeepSeek-R1-Distill-Llama-70B Llama-3.3-70B-Instruct HuggingFace ModelScope DeepSeek-R1-671B DeepSeek-V3-Base HuggingFace ModelScope 满 血 版 , 能 力 最 强 Deepseek-R1 在药企的本地化部 署 资料来源: AI 肖睿团队,北京大学 -DeepSeek 原理与落地应 用 智慧芽 智慧芽 @LS- GTM 7 o Deepseek-R1 在药企的本地化部署 · 个人部署: Ollma 框架适合个人用户私有化本地部署,但在多用户并发场景下性能衰减明显。 · 企业部署:推荐使用 Transformers 来快速验证模型能力,使用 VLLM 框架借助 PagedAttention 技术实现 24 倍于 Transformers 的吞吐量实现大模型的高效推理,针对不同企业场景,则提供 不同 的企业级部署方案。 · 其他方式:近期出现的 KTransformer s 、 Unsloth 等多套低成本动态量化模型的 DeepSeek 部 署 解决方案。目前暂不够成熟。 · LLM 部署简单,更适合中小型企业做大模型推理部署,对于大型企业,可以使用配置较为复杂的 Tensor RT 框架。 资料来源: AI 肖睿团队,北京大学 -DeepSeek 原理与落地应用 智慧芽 @LS-GTM 智 慧 芽 8 Deepseek-R1 满血版模型部署方案 · DeepSeek R1 模型就成了很多应用场景下的当务之急。受限于 DeepSeekR1671B(6710 亿参数 ) 的模型规模,通常 情况下部署 Deepseek R1 满血版模型需要 1200G 左右显存 ( 考虑百人内并发情况 ), 需要双节点 8 卡 H100 服务器 才能 运行 ( 总成本约在 260 万 -320 万左右 ), 即便是 INT4 半精度下,也至少需要 490G 显存,需要单节点 8 卡 H100 服务器才 能运行。 · 为了实现低成本 DeepSeek R1 模型的高性能部署, 目前大多数方案都采 用了牺牲模型推理速度 的策略。使用 CPU+GPU 混合推理的方式,将一部分推理计算转移到 CPU 上,降低 GPU 的负载。由于 CPU 并不适合深度学习计 算, 导致模型整体推理速度较慢。 智慧芽 方案 测试场景 硬件配置 资源占用 对话效果 (tokens/s) KTransformer 单并发测试 志强 3 代 CPU+4090GPU+D DR4 内 存 4 KTransformer 单并发测试 9654CPU+4090GPU+12x4800 M Hz DDR5 内存 14 Llama.cpp 纯 CPU 推理 480G 内存 +4 卡 4090 服务器 仅 CPU 推理 3.23 Llama.cpp CPU+GPU 推理 ( 单卡 4090) 单卡 4090 占用显存约 23G 3.65 Llama.cpp CPU+GPU 推理 (4 卡 4090) 4 卡 4090 占用显存约 92G 5.78 Llama.cpp 纯 GPU 推理 (4 卡 H800) 4 卡 H800,320G 总显存 占用显存约 140G 20.93 Ollama 纯 GPU 推理 ( 单卡 4090) 单卡 4090 5.97 Ollama 纯 GPU 推理 ( 双卡 A100) 双卡 A100 20 资料来源: AI 肖睿团队,北京大学 -DeepSeek 原理与落地应用 智慧芽 @LS-GTM Deepseek-R1 部署方案简 介 智慧芽 10 01 大模型的发展阶段和 deepseek 02 Deepseek-R1 在药企的本地化部 署 03 芽仔与 Deepseek-R1 对接 04 Al 融入智慧芽生物医药产品 智 慧 芽 11 Deepseek 出圈引爆全行业:仍有幻觉问题,例如出现专利号需要查证 ● 技术路径: ● 双组分控释:沙库巴曲 (Sacubitril, 前药 ) 需快速释放以转化为活性代谢物 (LBQ657), 而缬沙 坦 (Valsartan) 需缓释以维持长效作用,需解决两种成分释放动力学的兼容性。 o 制剂工艺:采用多层包衣、微丸压片或渗透泵技术 ( 如 OROSR) 实现差异化释放。 ● 临床阶段: o 临床前研究:已完成体外释放度、稳定性及动物药代动力学 (PK) 验证 (2021-2022 年 ) 。 o I 期临床试验: 72023 年启动,评估健康受试者中的生物等效性及缓释特性 (NCT0587XXXX) 。 6 II/I 期 计 划 :预计 2025 年完成 HFrEF 患者的疗效与安全性验证。 ● 企业动态: ● 诺华:主导缓释片开发,已公开部分工艺专利 ( 如 WO2022123456A1) 。 ○ 仿制药企:印度太阳制药 (Sun Pharma) 、中国豪森药业等正在布局仿制缓释剂型。 AND 过滤关键词 Q T 1 组 IN PA DOC 同族 ( 共 1 条 )θ | 山 分 析 山导出 语义过进 θ 切换视图目 田只小 ◎字段显示设置 复制检索式 [ 保存检素式 O 公开 ( 公告 ) 号 标题 [ 标当前申请 ( 专利权 ) 人 应用领域分类 输入一段文本描述或专利公开号 1 ·WO2022123456A1 太阳能电池的阻隔组件 3M 创新有限公司 ( 美国 ) 光伏发电 半导体器件 过滤项 ln 智慧芽 Q 专利数据库 ◎公开库 ① WO2022123456 , , G by patsnop 1 2 为什么需要 RAG? (1) 知识时效性困境 大模型训练数据存在时间截断 ( 如 GPT-4 仅更新至 2023 年 ) RAG 通过实时检索最新文档 ( 如科研论文 / 新闻 ), 动态扩展模型知识边界 (2) 事实准确性瓶颈 纯生成模型易产生 " 幻觉 " (Hallucination), 虚构不存在的事实 RAG 先检索相关证据文档,要求模型严格基于检索内容生成,显著降低错误率 (3) 领域适配成本问题 微调 (Fine-tuning) 需要大量标注数据和计算资源 RAG 仅需构建领域文档库,即可让通用模型输出专业内容 ( 如法律 / 医疗场景 ) 13 智慧芽 模型平台 Hi,I'm DeepSeek. RAG 生物医药知识中台 智能知识平台的组成 应用平台 自动 ASCO 会 议总 结 NER 关系识别 OCSR 标准字典表 自动医学写 作 protocol 文献、专利 助手 专利数据库 by patsnap 一键生成竞 品报告 SOT 内 部 数 据 新药情报库 bypatsnap Bio by patsnap Chemical by patsnap 自研数据 自有数据 药物交 易追踪 专利追 踪 构建路径 流 病 数 据 临 床 数 据 专 利 数据 文献 数据 新闻 数据 LM 管线 数据 个 ● 入 口 1 : 通 过 芽 仔 - 生 物 医 药 首 页 访 问 若 想 获 得 最 佳 体 验 , 强 烈 推 荐 通 过 PC 端 网 页 版 访 问 哦 ! 请 复 制 网 址 至 浏 览 器 登录 或 浏览器直接搜芽仔 - 生物医药 https://hiro-Is.zhihuiya.com/?campaign_promotion=HiroLS_
下载文档到本地,方便使用
- 可预览页数已用完,剩余 31 页请下载阅读 -
文档评分
请文明评论,理性发言.