Nacos3.0开源开发者沙龙·Agent & MCP杭州站 一个易于构建 AI Agent 应用的服务、配置和AI智能体管理平台(87页)https://nacos.io/ Nacos社区 2.0发展回顾 • Github仓库突破3w stars • 贡献者突破400 • 开源生态:多语言&集成 社区活跃度 影响百万开发者 • 官网访问用户数达90万 • 下载量达到300w次 • 服务超百家各领域头部知名企业 • 被国内大多云厂商托管 • 获得各类社区奖项8个 企业级应用 • 2021 OSC 中国最受欢迎开源项目 • 2022 功能易用性 安全风险 AI时代 • 构建AI应用部署形态改变 • 原生配置&服务的模型如何支持 AI应用构建,相比微服务时代提 供更易用的产品化功能 • 默认命名空间不统一:服务&配 置标识不一致 • 配置及服务的动态订阅 • 分布式锁功能支持 • 内核和控制台同端口 • 鉴权开关绑定 • 应用侧数据源动态无损轮转 Nacos-Controller 键所在 MCP Registry:存量接口转化&MCP管理 1.【存量业务 API 接口转化】 • API接口元数据手动注册到Nacos • 通过Higress转为MCP 服务“0 代码” 配 置生成MCP 协议; 2.【MCP Server自动注册】 • MCP Server 自动注册服务,支持 Java (Spring AI)、Python MCP、 TypeScript(进行中);20 积分 | 87 页 | 11.66 MB | 2 天前3
DeepSeek消费电子行业大模型新型应用最佳实践分享接口规范 复刻 Deep seel 的推理加速能力 一键发起模型部署 推理加速 DeepSeek 模 型 客 户 数 据 训练加速 DeepSeek 联 网 助 手 文档问答 知识摘要 • 模型 + 训练平台 + 应用构建 平台 全链路能力。 • 提供从训练——推理——应 用的一站式丝滑服务体验 • 全面接入 deepseek AI 更专业,支持 复杂图文混排文档解析 > 目标客户和场景 : • 面向具备简单开发能力的初级开发者、企 业运营人员。 • 可通过模型选择、提示词模版、 RAG 配 置能 力等加速大模型应用构建,实现与自 身业 务系统的无缝对接。 接入搜狗搜索增强 API ,一键开关,即可让 DeepSeek 实时 获取 互联网最新资讯,提升时效性和回答准确度 腾讯云大模型应用开发平台“知识引擎” 混元文生 图 .. 汽车 语音助手 零售 电子 说明书 金融 代理人 辅 助 ... ① 标准模式 内置 RAG 最优流 程 文档解析 多轮改写 文旅 虚拟 导游 政务 一网 通办 ② 自定义插 件 应用 场景 三方大模型 插件 工作流模式 “ 智能生产线 ” 使用指定的工作流来响应用户所 有对话。如果你对应用的执行流程, 有更加个性化的需求,可以通过工10 积分 | 28 页 | 5.00 MB | 6 月前3
2025年以计算加速迈进智能化未来-IDC新一代云基础设施实践报告一 方面,为满足大数据、数据库、3D视频处理在内的一些单核敏感型业务的需要,云服务仍将 持续提升单核、单实例性能。 多技术融合提升连接性能:云服务商综合利用内存/缓存、PCle、RDMA、IP网、EIP、VPC 等一系列技术升级和软硬件融合优化成果,大幅提升云、边、端不同位置服务之间的协同效 率,这对于保障在线业务的体验至关重要。 存储方案升级应对大数据量冲击:云服务商通过采用更高性能的存储设备和更高效的存储架 性能核处理器所提供的英特尔 ® Speed Select 技术 ( 英特尔 ® SST),ECS g�i 允许用户调整 CPU 核心数量与时钟频率,以满足特定计算需求 , 例如可以从 120 核改配 到 96 核,以提高单核性能。在线主频变配 + 芯粒化架构缓解资源紧张问题,一台服务器可实现 灵活多档配置,无需重新调度到其他机器或可用区,用户无需担心可用区内新实例资源不足的 问题 。对于运行 7x�� 的云原生业务和关键服务系统,可持续提供 异构系统的广泛应用,数 据安全需求也延伸至 GPU 等加速器。为应对这一挑战,英特尔在至强 ®6 处理器中推出了 TDX Connect 技术,实现 CPU 与加速器协同构建统一的数据安全防护网。无论数据位于服务器 CPU 中 处理,还是在加速器中运行模型与计算任务,TDX Connect 都能提供端到端的保护。它确保用户数 据在云平台处理的全流程始终受到硬件级防护,兼顾安全性与高效性,有效隔离主机操作系统、虚拟10 积分 | 27 页 | 5.31 MB | 3 月前3
AI大模型人工智能数据训练考评系统建设方案(151页 WORD)统其他部分的正常运行。同时,系统应支持分布式部署,以提升处 理能力和资源利用率。通过引入容器化技术(如 Docker)和编排 工具(如 Kubernetes),系统可以根据实际需求动态调整资源分 配,满足不同阶段的性能要求。 其次,系统应提供开放的 API 接口,支持与其他系统的无缝集 成。通过标准化的数据交换协议(如 RESTful API 或 gRPC),外 部系统可以便捷地接入系统功能,实现数据的共享和服务的扩展。 多源数据接入:支持多种数据源的灵活接入,包括传感器、数 据库、文本、图像和视频等。 实时与批量采集:支持实时数据流处理和批量数据调度采集, 确保数据的及时性和完整性。 数据清洗与预处理:内置多种清洗和预处理算法,支持灵活配 置和扩展。 安全性保障:支持数据加密传输和访问控制,确保数据采集过 程的安全性和合规性。 日志记录与审计:记录详细的采集日志,支持数据采集过程的 审计和问题排查。 为保证模块的高 数据进行质量检查,发现并修正数据中的异常或错误。质量检查可 通过自动化脚本或人工抽查相结合的方式实现。 为保障数据安全性,需建立全面的数据安全防护体系,包括网 络隔离、入侵检测、数据脱敏、数据泄露防护等措施。网络隔离可 通过虚拟局域网(VLAN)或防火墙实现,限制不同网络区域之间 的数据流通。入侵检测系统(IDS)和入侵防御系统(IPS)可实时 监控网络安全状况,及时发现并阻止潜在的安全威胁。数据脱敏技60 积分 | 158 页 | 395.23 KB | 4 月前3
铁路沿线实景三维AI大模型应用方案准确性和 完整性。无人机的使用则有助于在短时间内覆盖大片区域,特别适 合于复杂地形和人力难以到达的地区。 在数据处理阶段,进行数据预处理是确保建模精度的关键步 骤。这一过程包括噪声过滤、数据配准和点云拼接等。首先,利用 先进的算法对采集到的原始数据进行清洗,去除噪声和不相关的信 息。接着,通过多视角的匹配与对齐,将不同位置采集的数据进行 融合,形成完整的三维点云模型。 点云生成后, 数据采集工程师:负责操作和维护采集设备,保证设备在现场 的正常运转。 GIS 专家:进行地理信息系统相关的数据处理和分析,确保数 据的空间准确性。 现场管理人员:协调现场各项工作,确保人员和设备的合理调 配,提升效率。 接下来的工作流程按照以下步骤进行: 1. 前期准备:进行现场勘察,规划数据采集的路线和时间节点, 确保不会影响正常铁路运营。 2. 设备测试:对所有采集设备进行测试,确保它们处于可用状 通过数据预处理,需将收集到的数据进行格式转换、数据清洗和噪 声过滤,确保后续处理过程的有效性。 模型构建的核心步骤是三维重建,这一过程可分为以下几个步 骤: 1. 数据匹配与配准:使用计算机视觉技术,将不同来源的数据进 行匹配与配准。通过特征点提取和匹配算法,确保不同数据集 之间的空间一致性。 2. 点云生成:将激光扫描数据转化为点云数据,这是三维重建的 基础。点云数据包含了大量的空间信息,能够精确描述铁路沿40 积分 | 200 页 | 456.56 KB | 5 月前3
AI知识库数据处理及AI大模型训练设计方案(204页 WORD)式。同时,对于文本数据,需进行分词、去除停用词、统一大小写 等处理,为后续的自然语言处理任务奠定基础。 在数据清洗的基础上,需进行数据标注和分类。对于结构化和 半结构化数据,可采用自动化工具进行标注,如使用正则表达式匹 配特定模式。对于非结构化数据,尤其是文本数据,需借助人工标 注或半自动标注工具,确保标注的准确性和一致性。标注过程中, 需制定详细的标注规范,以减少标注误差。 数据标注完成后,需进行数据增强和扩展。通过数据增强技 通过以上步骤,可确保模型训练过程高效、稳定,最终获得性 能优异的 AI 大模型。 3.3.1 硬件资源配置 在模型训练阶段,硬件资源配置是确保训练效率和模型性能的 关键因素。根据模型规模、数据量以及训练时间的要求,需合理配 置计算资源、存储资源以及网络资源。以下是对硬件资源配置的具 体规划。 首先,计算资源方面,建议采用高性能 GPU 集群作为主要计 算单元。对于大规模 AI 模型的训练,GPU 在处理矩阵运算和并行 级存储,并支持动态扩 展。 网络资源的配置对于分布式训练尤为重要,需确保节点间的高 效通信。具体建议如下: - 网络带宽:采用 InfiniBand 或 100Gbps 以太网,确保节点间数据交换的低延迟和高吞吐量。 - 网 络拓扑:建议使用 Fat-Tree 或 Dragonfly 拓扑结构,以减少通信 瓶颈并提高网络效率。 以下是一个硬件资源配置的参考表格: 资源类型 配置建议 备注60 积分 | 220 页 | 760.93 KB | 4 月前3
基于大模型的具身智能系统综述gence”[1] 中对未来机器发展方向的设想: 一个方向 是让机器学会抽象技能, 如下棋; 另一个方向则是 为机器人提供足够好的传感器, 使之可以像人类一 样学习. 前者的思想出现在后来发展的各类神经网 络如多层感知机、卷积神经网络中, 即离身智能; 后 者则逐渐发展出了具身智能的概念. 现在, 具身智 能一般指拥有物理实体, 且可以与物理环境进行信 息、能量交换的智能系统[2]. 虽然在过去的几十年 图中找到与查询向量点积最大的体素, 从而确定物 体的位置. 对于抓取任务, LangSam 模型根据语言 查询对物体进行分割, 得到物体的掩码, 然后从 AnyGrasp 生成的抓取姿态中筛选出与物体掩码匹 配的抓取点, 并实施抓取. CaP (Code as polices)[70] 利用大语言模型来生 成机器人策略代码. 这些代码能够将自然语言命令 转换为机器人可执行的策略, 从而实现对机器人的 控制 randomization), 这个过程分为三个阶 段: 首先, LLM 合成奖励函数; 其次, 基于扰动模拟 中的初始策略执行, 创建物理参数的适当采样范围; 最后, LLM 利用这些信息生成有效的领域随机化配 置. 实验表明, 该方法对多种机器人和任务具有普 遍适用性. 4.2 模仿学习 人类对机器人进行远程操控并完成任务的过程 能够提供对复杂任务处理的深刻见解. 专家执行任 务的方式中包含了关键的决策点和操作技巧20 积分 | 19 页 | 10.74 MB | 2 天前3
审计领域接入DeepSeek AI大模型构建Agent智能体提效设计方案(204页 WORD)模型构建审计问答系统,在 2000+审计工作底稿上微调,实现: 审计语义分析增强 1. 构建审计领域本体库,包含: - 500+财 务舞弊模式的特征短语 - 3000+ 会计准则条款的语义关系网 - 200+ 典型管理建议书的模板结构 2. 实施上下文敏感的文本分类: - 合同条款风险等级预测(F1=0.89 ) - 管理层声明书的情感倾向分 析(准确率 91.2% 每周自动更新训 练数据,动态调整行业基准参数;第二,设置误报反馈通道,审计 师标记的误判案例会自动加入模型再训练样本;第三,对检测出的 异常交易自动生成结构化报告,包含交易链路图谱、关联方关系网 和同类案例参考。测试数据显示,该方案可使异常交易发现效率提 升 6.8 倍,同时将人工复核工作量减少 43%。 4.2 风险预警与评估 在风险预警与评估模块中,DeepSeek 智能体通过实时监测审 系统集成与联调阶段是确保 DeepSeek 智能体与现有审计系统 无缝衔接的关键环节。首先需完成 API 接口的标准化对接,包括数 据格式转换、身份认证(如 OAuth2.0 协议)和权限控制模块的配 置。典型接口包括审计数据抽取接口(支持 JSON/XML 格式)、模 型结果回传接口(加密传输)以及日志监控接口。接口响应时间需 控制在 500ms 以内,通过 Postman 或 Swagger10 积分 | 212 页 | 1.52 MB | 2 天前3
智慧地铁城市轨道交通行业AI大模型应用设计方案通提供更高 效、安全和友好的服务。 2. AI 大模型在城市轨道交通的应用场景 在城市轨道交通行业中,人工智能大模型的应用场景广泛且切 实可行,能够有效提升运营效率、增强乘客体验以及优化资源配 置。这些应用主要集中在以下几个方面: 首先,智能调度系统的应用是一个关键场景。利用 AI 大模型 分析实时数据,包括列车运行状态、乘客流量、天气变化等,可以 动态调整列车发车频率和线路配置,以应对不同的需求波动,减少 决策的实时优化。 首先,实时数据的来源主要包括列车运行状态、乘客流量、天 气条件、设备故障信息等。通过建立数据采集系统,车辆上、车站 内及关键节点的传感器可以不断发送数据,形成一个全面的监控 网。 数据收集后,AI 大模型的作用在于对这些数据进行实时分析, 以识别潜在的问题并预测未来的趋势。例如,模型可以通过分析历 史客流数据,结合实时监控的信息,预测某个时间段内某条线路的 客流高峰 见等数据,为模型提供丰富的训练材料。 2. 模型训练:利用收集的数据进行大模型训练,优化自然语言理 解和生成能力,确保系统能够理解复杂的用户意图。 3. 多渠道接入:智能问答系统应支持多种接入方式,如官网、手 机应用、微信公众号等,确保乘客可以随时随地获得服务。 4. 持续优化:在系统上线后,应收集用户交互数据,定期评估问 答的准确性和满意度,不断进行模型迭代和服务优化。 5. 引入人机协作:40 积分 | 154 页 | 284.34 KB | 5 月前3
Deepseek大模型在银行系统的部署方案设计模型部署 在银行系统中部署 Deepseek 大模型时,首先需要对硬件资源 进行规划和配置。考虑到大模型的计算需求,建议采用高性能 GPU 服务器集群,以确保模型训练和推理的效率。每个节点应配 备至少两块 NVIDIA A100 GPU,以保证足够的并行计算能力。服 务器之间通过高速 InfiniBand 网络连接,确保数据传输的低延迟 和高带宽。 在软件环境配置方面,采用容器化技术(如 监控和动态调整。通过部署实时监控系统,跟踪模型的推理速度、 准确率和资源占用情况,及时发现性能瓶颈并调整优化策略。例 如,可以在高负载时段动态调整模型的 batch size 或计算资源分 配,以平衡性能和资源消耗。 最后,模型优化还需要与银行系统的安全性和合规性要求紧密 结合。在优化过程中,需确保模型符合相关法律法规和行业标准, 特别是在数据隐私保护和模型透明度方面。可以通过引入可解释性 模块的兼容性和协同工作能力: - 与核心系统集成测试:验证模型 与银行核心业务系统(如账户管理、支付清算、风控系统等)的数 据交互和业务流程一致性。 - 与前端应用集成测试:测试模型在银 行 APP、网银、微信公众号等前端应用中的表现,确保用户体验的 一致性和流畅性。 - 与日志监控系统集成测试:验证系统日志的生 成、存储和分析功能,确保能够有效支持故障排查和性能优化。 以下是一个性能测试用例的示例表格:10 积分 | 181 页 | 526.32 KB | 6 月前3
共 28 条
- 1
- 2
- 3
