Nacos3.0开源开发者沙龙·Agent & MCP杭州站 一个易于构建 AI Agent 应用的服务、配置和AI智能体管理平台(87页)贡献者突破400 • 开源生态:多语言&集成 社区活跃度 影响百万开发者 • 官网访问用户数达90万 • 下载量达到300w次 • 服务超百家各领域头部知名企业 • 被国内大多云厂商托管 • 获得各类社区奖项8个 企业级应用 • 2021 OSC 中国最受欢迎开源项目 • 2022 InfoQ 十大开源新锐项目 • 2022 CSDN 中国开发者影响力项目 • 2022 开源成熟度评估 – 优秀二级 优秀二级 • 2022 开源创新大赛 – 二等奖 • 2023 开源创新榜 优秀开源项目 • 2023 开放原子基金 年度生态开源项目 • 2023 GLCC优秀社区 Nacos 2.0技术架构演进 Nacos 2.0挑战与机遇 功能易用性 安全风险 AI时代 • 构建AI应用部署形态改变 • 原生配置&服务的模型如何支持 AI应用构建,相比微服务时代提 供更易用的产品化功能 Token •API Key(Header) •API Key(Query) 网关侧认证支持 •API Key •JWT •OAuth2 •三方认证 Higress MCP 开源 vs 商业化对比 Higress 开源 公有云阿里云 API Gateway 专有云飞天企业版 API Gateway OpenAPI 转换 MCP 支持 支持 支持 DB 转换 MCP 支持 支持 支持 MCP20 积分 | 87 页 | 11.66 MB | 2 天前3
金融-DeepSeek银行部署加速,AI金融应用迎来跃迁证 券 研 究 报 告 | 2 0 2 5 . 03 . 1 3 专 业 | 领 先 | 深 度 | 诚 信 中 泰 证 券 研 究 所 n DeepSeek 开源使金融机构能够轻松获得前沿模型能力,且大幅降低部署成本。其通过对训练方式、算法架构和推理方 法 的工程化优化大幅降低了部署成本。近期采用大规模 RL 训练方法的阿里 QwQ-32B 等模型也在缩小规模的同时达到了 正在成为很多中小银行智能化转型的重要选择。 n 建议关注:宇信科技、京北方、天阳科技、长亮科技、百融云等。 n 风险提示 : AI 技术落地不及预期、竞争加剧、信息更新不及时等。 2 核心观点 DeepSeek 开源、低成本、强推 理 助推银行业应用 1 n DeepSeek 模型在 Post-Train 阶段大规模应用了强化学习方法。 R1 使用了冷启动 + 大规模强化学习方法, R1-Zero 版 本模 R1 为代表的优秀开源模型的能力离闭源模型越来越近。行业普遍认为如果开源软件达到闭源 80% 以上能 力,就足以压缩闭源的生存空间。 DeepSeek 能力能够比肩 OpenAIo1 ,开源使各行业机构能够轻松获取前沿模型能力, 且可直接进行私有化部署或商业化开发。 开源易获得: DeepSeek 使私有化部署模型也能够追平前沿闭源模型水 平 图表:闭源模型与开源模型的差距正在缩小10 积分 | 25 页 | 1.44 MB | 2 天前3
DeepSeek洞察与大模型应用-人工智能技术发展与应用实践• FP8混合精度训练、DualPipe流水线、MoE负载 均衡(提升训练效率,降低训练成本) DeepSeek-V3多项评测成绩超越了Qwen2.5-72B和Llama-3.1-405B等其他开源模型,并在性能上和 世界顶尖的闭源模型GPT-4o以及Claude-3.5-Sonnet不分伯仲。 DeepSeek-V3 -4- • R1推出后,追平GPT-o1,迅速出圈海外。从 Dee DeepSeek-V3和R1进入到国际顶尖模型行列 n DeepSeek-R1是综合效果最好的开源模型, 排在众多优秀的开源和闭源模型前面 n Qwen2.5-Max、GLM-4-Plus、Step-2- 16K-Exp等国产模型也有不俗的表现 -6- DeepSeek模型效果 (2/2) n DeepSeek-V3和R1相对于700亿以下开源模型(以千问720亿 为代表), ,扩充了其能力边界 n DeepSeek-R1引入 少,但Meta不会因此减少AI支 出:“我仍然认为,从长远来看,大力投入资本支出和基础设施建设将成为一种战略优势。” 卷积神经网络之父Yann LeCun: “与其说中国AI正在追赶美国,不如说开源模型正在超越 闭源”。 Anthropic CEO达里奥·阿莫迪:我认为一个公平的说法是“ DeepSeek 生产的模型接近 7-10 个月前美国模型的性能,成本要低得多(但远不及人们建议的比例)10 积分 | 37 页 | 5.87 MB | 6 月前3
DeepSeek消费电子行业大模型新型应用最佳实践分享基于自己数据 SFT 做自己模型的企业 • 基于开源或者基于国内预训练模型结 合自己数据进行微调的企业 …… …… …… …… 国外头部 国内大厂 国内创业明星 国内外大模型百花 齐放 全球开源社区 DeepSeek 是“深度求索 ” 开发的一系列人工智能模型。 DeepSeek-R1 是基于 DeepSeek-V3-Base 训练生成的强化推理能力模型,在数学、 代 码生成和逻辑推断等复杂推理任务上表现优异。 DeepSeek 推动国产模型达到新 的高度 开源模型比肩头部闭源 60%+ 指标优于 Llama3.1 Claude-3.5 GPT- 4o 打破大模型技术壁垒 重挫美国科技公司股价,英伟 达市值下跌 5900 亿 更高效资源利用 公有云 HCC 高性能服务器,一键纳管 u 私有化服务器,支持 X86+ARM 统一纳 管 自研行业大模型 u 金融 / 汽车 / 医疗,提升垂类任务性能 u 支持知识增强、实时更新知识库 开源大模型 u Deep seek 全 系 u Llama/baichuan/chatglm/Qwen 等 自研混元大模型 u 从零训练自主创新的通用大模型 u 7b 13b 70b 不同参数量级10 积分 | 28 页 | 5.00 MB | 6 月前3
从大模型、智能体到复杂AI应用系统的构建(61页 PPT)OpenAI o1/o3 在数学和代码推理任务上的卓越表现 • 开源大模型 DeepSeek-R1 在 MATH 基准上达到 87.2% 的准确率 横空出世: OpenAI o1/o3 、 DeepSeek- R1 等 o1 在数学和代码问题上的水平大幅提升 ,超越人类专 家 开源大模型 DeepSeek R1 匹敌 OpenAI o1 DeepSeek 的 “ aha 这种深度推理能力是如何实现的?是单纯的规模扩展结果,还是有其他关键因素? 2023-2024 年,推理能力突破性进展: • OpenAI o1/o3 在数学和代码推理任务上的卓越表现 • 开源大模型 DeepSeek-R1 在 MATH 基准上达到 87.2% 的准确率 横空出世: OpenAI o1/o3 、 DeepSeek- R1 等 1. 早期的大模型推理能力不足 2. 1/3 的速度追赶 , 结果比大 巴车提前 20 分钟到。 问: ( 1 )大巴和小车的速度各是多少? ( 2 )班主任老师追上大巴的地点 距离博物馆还有多远? 首个将思维链显式展示的开源模型 DeepSeek-R1 的推理过 程 s1 通过在一个精心构建的小规模数据集上( 1000 条数据) 进行微调, 并结合预算强制技术,实现了强大的推理能力和测试时计算扩展性 如何低成本实现推理模型?20 积分 | 61 页 | 13.10 MB | 2 天前3
大模型技术深度赋能保险行业白皮书151页(2024)灵活性与效率。此外,开源模型的不断涌现,不仅加速了技术的普及与应用,也为全球开发 者共同推动AI技术的进步搭建了广阔的舞台。 1.引言 1.1 大模型技术近一年的发展演变 资料来源:集微咨询(JW Insights)整理绘制,本图谱仅列举全球典型企业及相关大模型, 排名不分先后 图1 大模型产业图谱 �� 大模型训练数据通常来自网络获取数据、外部付费/开源数据集、企业自有数据以及AI 据的生成技术、验证机制及质量控制等方面的研究与实践,以充分发挥其潜力,推动大模 型技术的持续进步与发展。 (2)多领域开源数据集相继推出 当前,在开源数据资源的版图中,中文语料的占比显著偏低,尚不足总量的十分之一, 这凸显了中文自然语言处理领域对高质量数据资源的迫切需求。为应对此挑战,国内已相 继开源了多个中文预训练数据集,诸如CCI 2.0、SkyPile-150B、IndustryCorpus、Tele-AI 与开源文本数据集比较,当前开源多模态数据集面临着规模小、多样性匮乏及来源单 一(主要集中于HTML文档)等显著局限,这些问题制约了开源多模态大模型的发展步伐, 拉大了其与闭源多模态大模型之间的性能差距。为填补这一空白,今年7月,由华盛顿大学、 Salesforce Research、斯坦福大学等机构组成的联合研究团队成功构建了MINT-1T⸺一 个规模空前的万亿级交织多模态开源数据集。20 积分 | 151 页 | 15.03 MB | 2 天前3
抢滩接入Deepseek,教育行业迈入AI深度整合新阶段任务、复杂推 理、数学代码等方面的表现均有提升。在学习过程中,DeepSeek的多模态能 力有助于提升图文结合的题目理解、输出多模态内容辅助学习,丰富AI教育应 用场景。 l 开源与低成本:DeepSeek作为开源大模型,开放模型架构、模型参数、技 术报告等,企业以其为基座可直接进行二次开发。此外,DeepSeek API调用 成本显著低于其他主流商业大模型及自研教育大模型成本,降低教育企业发展10 积分 | 6 页 | 1.23 MB | 2 天前3
打造自适应AI运维智慧体:大语言模型在软件日志运维的实践(29页 PPT)Prompt 引擎实 现本地 API 联通的定制化告警分析设备 现网设备日志 根据现网数据库分析告警事件, 结合离线知识库进行业务问答。 离线知识库 现网数据库 大模型盘古 任意大模型 开源大模型 前端效果信息 动态控件请求 参数缺失 / 有 误 实践案例 - 服务实践: Prompt 引擎服务设计 架构 API 调用 API 注册 私有数据支撑 实时数据库 Why How Strong LLM 1:This is a log about …… 2:This log happens because … SuperLog: 对开源小型 LLM 进行领域知识注入,以增强 其对 领域 Prompt 策略的理解执行能力 BGL HPC Window s … Linux Mac Apache Domain Adaptio20 积分 | 29 页 | 9.28 MB | 2 天前3
AI知识库数据处理及AI大模型训练设计方案(204页 WORD)数据进行标注 和结构化处理,形成可被模型直接利用的知识库。 模型训练与优化:采用分布式训练架构,结合超参数调优和模 型剪枝等技术,提升模型的训练效率和性能。 在技术选型上,项目将优先采用开源的深度学习框架(如 TensorFlow、PyTorch)和分布式计算平台(如 Kubernetes、Spark),以确保方案的灵活性和可扩展性。同时, 项目将注重数据安全与隐私保护,通过数据脱敏、加密传输和访问 成本 Label Studio 文本、图像、音 频 多模态标注、自定义模板 预标注 开源免 费 Prodigy 文本、图像 关系抽取、实体识别、AI 辅 助标注 预标注 商业收 费 VIA (VGG) 图像、视频 对象检测、语义分割 无 开源免 费 BRAT 文本 实体关系标注 无 开源免 费 在实际应用中,建议根据项目需求和团队技术能力选择合适的 工具。例如,对于多模态数据标注项目,Label 据规模及计算 资源进行模型选择。对于自然语言处理任务,常用的模型包括 GPT 系列、BERT、T5 等。这些模型在预训练和微调方面表现优异,能 够处理多种复杂的语言任务。选择模型时,还需考虑其开源社区支 持、模型复杂度以及训练时间等因素。 在架构设计方面,需根据具体任务进行定制化调整。例如,对 于问答系统,可以在 BERT 的基础上添加额外的输出层以处理多分 类或序列标注任务。对于生成任务,如文本生成,可选择60 积分 | 220 页 | 760.93 KB | 4 月前3
AI大模型人工智能行业大模型SaaS平台设计方案 教育和研究机构 高校和研究机构在教学、科研及知识创新过程中也表现出对 AI 技术的强烈需求。这些机构需要强大的计算能力和丰富的 模型库,以支持不同研究课题和学生学习的需要,同时希望通 过开源或优价模式降低使用成本。 政府和公共部门 政府机构在提高公共服务效率、进行数据分析和决策支持等方 面越发依赖 AI 技术。它们需要安全性高、符合合规性的解决 方案来处理敏感数据,推动数字政府的发展。 等政策法规的实施,企业在使用 AI 技术时, 必须更加注重数据管理和隐私保护。能提供安全、透明操作的 SaaS 平台将更容易获得用户信任,进而在竞争中脱颖而出。 最后,行业生态的形成也在悄然变化。随着开源技术的成熟和 社区的壮大,越来越多的小型企业和初创公司开始涌入 AI 市场。 这些企业通常具备更高的创新能力和灵活性,能够为大模型 SaaS 平台注入新的活力。但与此同时,行业内的竞争也变得愈加激烈, GPT-3、BERT、T5 和开源的 LLaMA 模型为例,它们 各自的特点如下: 模型 主要特点 适合应用场景 计算资源需 求 性能评价 GPT-3 自然语言生成能力强 聊天机器人,内容 生成 高 优秀 BERT 文本理解能力强 文本分类,问答系 统 中 较好 T5 可处理多种 NLP 任务 文本转换,多任务 学习 中至高 优秀 LLaMA 开源,灵活性高 研究,特定任务50 积分 | 177 页 | 391.26 KB | 5 月前3
共 16 条
- 1
- 2
