DeepSeek消费电子行业大模型新型应用最佳实践分享业务系统 C 对外出入口 C 应用逻辑 C 算法 算力 统一出入口 应用模板( A/B/C… ) 算法池( A/B/C… ) 算力池 大模型时代企业 AI 项目“烟囱式 ”建设痛点越发严重 智能化趋势下:多品牌多场景下的重复造车轮,导致模型算法和镜像等 AI 资产管理分散,无法沉淀复用和统一运用。 底层统一 上层统一 中层异构 AI 治理 集约敏捷的 AI 中台式建 设 业务系统 DeepSeek 训练 部署 应用 数据中心 分布式推理: 解决大参数量模型部署,提供超长上下文窗口 内置推理加速: 全新升级 Angel 推理加速能力,加速比可达 2 倍 大模型调用: 统一的大模型调用 API 及体验工具,大幅缩短业务 接入大模型能力周期 u 公有云自带容器底座 TKE u 私有化自带容器底座 TCS 腾讯云 TI 平台产品核心能力 面向实战的一站式大模型精调部署解决方案 存 储 CFS/Turbofs/Goosefsx u 私有化 NFS 协议存储 NAS/CSP 云服务器 u 公有云 HCC 高性能服务器,一键纳管 u 私有化服务器,支持 X86+ARM 统一纳 管 自研行业大模型 u 金融 / 汽车 / 医疗,提升垂类任务性能 u 支持知识增强、实时更新知识库 开源大模型 u Deep seek 全 系 u Llama/baichuan/chatglm/Qwen10 积分 | 28 页 | 5.00 MB | 6 月前3
Nacos3.0开源开发者沙龙·Agent & MCP杭州站 一个易于构建 AI Agent 应用的服务、配置和AI智能体管理平台(87页)0挑战与机遇 功能易用性 安全风险 AI时代 • 构建AI应用部署形态改变 • 原生配置&服务的模型如何支持 AI应用构建,相比微服务时代提 供更易用的产品化功能 • 默认命名空间不统一:服务&配 置标识不一致 • 配置及服务的动态订阅 • 分布式锁功能支持 • 内核和控制台同端口 • 鉴权开关绑定 • 应用侧数据源动态无损轮转 Nacos-Controller 敏感配置强化加密存储 敏感配置强化加密存储 Nacos 控制台 maintainer-client 默认鉴权 浏览器 独立域名https TLS TLS • 数据源配置统一托管 账号密码,数据库地址,连接池大小,超时 参数 • 密文存储 应用运行时内存解密 • 双层权限管控 Nacos加密配置及解密权限 outer Part 4 Nacos 3.0 未来的规划 AI能力持续迭代 & 微服务生态持续探索 一个更易于构建 AI Agent 应用的AI智能体管理平台 1.【Agent运行时配置统一托管】 • Agent组件管理平台,通过AgentId串连各组件 配置 2.【Agent侧快速集成】 • 基于AgentId封装各组件 API • AI应用侧框架SAA通过Agent API配置化接入20 积分 | 87 页 | 11.66 MB | 2 天前3
AI知识库数据处理及AI大模型训练设计方案(204页 WORD)据处 理及 AI 大模型训练方案,具体包括以下核心内容: 数据采集模块:支持多源异构数据的自动化采集和整合; 数据清洗模块:提供多种数据清洗算法,确保数据质量; 数据标准化模块:统一数据格式,方便后续处理; 数据存储模块:采用分布式存储技术,支持大规模数据的高效 存储; 数据检索模块:实现高效的分布式检索,满足实时查询需求。 通过上述模块的集成与优化,本方案将显著提升知识库数据处 和创新的知识资产。具体目标包括以下几个方面: 首先,实现知识库数据的高效清洗与整合。针对多源异构数 据,设计并实施数据清洗规则,确保数据的准确性、完整性和一致 性。同时,建立数据标准化流程,统一数据格式和语义表达,为后 续的模型训练提供高质量的数据基础。数据清洗的关键指标包括: - 数据准确率提升至 99% 以上 - 缺失值处理率达到 98% - 重复数据 删除率不低于 95%。 数据采集标准和流程,确保数据的合法性和合规性。 数据采集完成后,需进行初步的数据清洗。这一步骤包括去除 重复数据、纠正明显的错误、填补缺失值以及统一数据格式。例 如,对于日期格式不一致的情况,需将其统一为 ISO 8601 标准格 式。同时,对于文本数据,需进行分词、去除停用词、统一大小写 等处理,为后续的自然语言处理任务奠定基础。 在数据清洗的基础上,需进行数据标注和分类。对于结构化和 半结构化数据,60 积分 | 220 页 | 760.93 KB | 4 月前3
2025年以计算加速迈进智能化未来-IDC新一代云基础设施实践报告执行,简化系统架构,提升响应性能与可靠性,持续改善搜推广、语音/视频处理以及中小模 型的推理体验。 云原生方案形成整体保障:除了算力层面的降本措施,云服务商还通过持续增强弹性伸缩、 Serverless以及统一运维等云原生解决方案的效能,实现硬件、算法、平台、服务的协同进 化。例如,在强化弹性伸缩能力时,综合运用编排调度(例如Kubernetes)、服务监控、服 务治理以及相关的配置管理等云原生能力, 云原生架构带来系统架构和技术栈的新问题:例如如何处理微服务间频繁的通信、复杂的拓 扑、多样化存储以及动态多变的负载等,并强化隔离保障安全。云服务商通过持续增强弹性 伸缩、Serverless以及统一运维等云原生解决方案的效能,帮助用户降低成本。例如,在强 化弹性伸缩能力时,综合运用编排调度(例如Kubernetes)、服务监控、服务治理以及相关 的配置管理等云原生能力。 �� �.� AI数据处理与计算协同的复杂度激增 增长,为保障AI系统的实时响应,云基础设施需要在架构层面做出创新,以应对多种类型的挑战。 数据处理挑战:除AI海量、多模态特征外,工业制造、医疗等领域的AI应用所涉及的异构数据 多,格式和标准不统一,进一步导致管理和存储成本的上升。在海量AI数据预处理过程中, 非结构化数据清洗、数据标注等工作的效率往往不高,也严重影响了AI应用目标的达成。 协同计算挑战:规模化的AI训练和推理任务,往往采用分布式架构执行,参数同步时的通信10 积分 | 27 页 | 5.31 MB | 3 月前3
审计领域接入DeepSeek AI大模型构建Agent智能体提效设计方案(204页 WORD)在技术方案设计中,我们采用模块化架构实现审计智能体的构 建,核心分为数据层、模型层、应用层三层结构。数据层通过 ETL 管道对接企业 ERP、财务系统、合同数据库等多源异构数据,采用 动态字段映射技术解决审计场景下数据标准不统一的问题。例如, 针对不同客户使用的 ERP 系统差异,我们预设了 SAP、Oracle、用 友等系统的数据适配器,支持自动转换科目编码和凭证格式。 审计数据的处理流程如下表所示: 处理阶段 技术实现 块间的低耦合交互。数据接入层支持多模态输入处理,包括结构化 财务数据(如 SAP、Oracle ERP 系统导出的凭证数据)、非结构 化文档(扫描版合同/发票)以及语音记录(审计访谈录音),通 过自适应解析引擎将异构数据统一转化为 JSON 格式的中间表示, 字段映射准确率达 98.6%。 审计知识库构建采用双通道更新机制,包含以下关键组件: - 法规标准库:实时同步财政部最新审计准则、企业会计准则等权威 非结构化数据解析: 使用 OCR 技术提取扫描件中的表格文本,通过 NLP 模型识别关键 字段(如发票代码、金额、日期),解析准确率需达 98% 以上。 2. 数据标准化:将不同系统的科目编码映射到统一审计标准,例如 通过映射表将企业自定义科目转换为财政部标准科目代码。 数据增强环节引入审计领域的特定处理: - 关联关系构建:自 动生成凭证-账簿- 报表的勾稽关系索引 - 风险标签附加:基于规则10 积分 | 212 页 | 1.52 MB | 2 天前3
基于大模型的企业架构建模助力银行数字化转型应用方案由于系统复杂且依赖老旧技术,维护和升级成本居高不下,且存在较高的故障风险,影响业务 连续性。 维护成本高 数据孤岛与业务协同效率问题 数据分散存储 银行内部各业务系统独立运行,数据分散存储,缺乏统一的数据管理和整合机制,导致数 据孤岛现象严重。 业务协同困难 数据价值挖掘不足 由于数据无法共享,各部门之间的业务协同效率低下,跨部门业务流程复杂且耗时,影响 整体运营效率。 分散的数据 理念,实现 持续集成与持续交付 ( CI/CD ),通过自动化 工具监控系统运行状态, 及时发现并解决问题,提 升运维效率。 大模型与现有系统的无缝集成策略 数据接口标准化 01 通过定义统一的数据接口和协议,确保大模型与现有系统 之间的数据交互顺畅,减少集成过程中的兼容性问题。 模型轻量化部署 02 针对大模型的高计算需求,采用模型压缩和量化技术,降 低模型的计算复杂度和存储需求,使其能够在现有硬件资 据的一致性和可用性。 数据清洗技术:采用基于规则和机器学习的清洗方法,识 别并处理数据中的缺失值、重复值、异常值等问题,确保 数据的准确性和完整性。 数据标准化:通过建立统一的数据标准和规范,将不同来 源的数据转换为统一的格式和结构,便于后续的数据分析 和应用。 数据质量监控:建立数据质量监控机制,实时监测数据质 量,及时发现和解决数据问题,确保数据治理的持续性和 有效性。 知识抽取40 积分 | 56 页 | 11.28 MB | 5 月前3
DeepSeek在金融银行的应用方案以及第三方平台收集多维度数据,包括但不限于客户交易记录、信 用评分、行为数据、市场数据以及宏观经济指标。这些数据通常以 结构化(如 SQL 数据库)和非结构化(如文本、图像)形式存 在,因此需要进行统一的格式转换,以便后续处理。 接下来,进行数据清洗以消除噪声和异常值。针对缺失值,可 采用插值法或基于业务规则的填充策略;对于异常值,则通过箱线 图、Z-score 等方法进行检测和处理。此外,需识别并处理重复数 录的清除可以通过唯一标识符进行去重,而不一致的数据格式则需 通过正则表达式或数据转换工具进行统一。 为提高效率,建议采用以下步骤进行数据清洗: 数据预处理:对原始数据进行初步筛选,去除明显无效的数 据。 数据验证:通过业务规则和逻辑校验,确保数据的准确性和一 致性。 数据转换:将数据转换为统一的格式和标准,便于后续分析。 此外,为提高数据处理的透明度和可追溯性,建议使用版本控 Kubernetes),以提高部署效率和运维能力。 以下是系统架构的核心组件及其功能描述: 分布式数据库:负责数据存储与备份,支持高并发访问。 微服务模块:提供独立的业务逻辑处理功能,支持弹性扩展。 API 网关:统一管理外部系统的访问请求,实现负载均衡和安 全控制。 消息队列:处理异步任务和事件驱动型业务,提升系统吞吐 量。 缓存系统:加速数据访问,减少数据库压力。 通过以上架构设计,DeepSeek10 积分 | 154 页 | 527.57 KB | 6 月前3
铁路沿线实景三维AI大模型应用方案备应具备良好的防水、防尘和抗震能力,选择适合铁路沿线的 工业等级设备。 传感器布置示意图: 最后,建议定期对传感器和监控设备进行维护和校准,确保其 正常运行和数据准确性。此外,监测数据应通过统一的平台进行实 时收集与分析,形成数据共享机制,以便于铁路管理部门及时采取 干预措施,确保铁路运输的安全高效。 3.2 数据清洗与预处理 在铁路沿线实景三维 AI 大模型的应用中,数据清洗与预处理 模型填补法:通过机器学习模型预测缺失值,尤其适用于复杂 的数据结构。 在完成数据清洗后,我们需要对数据进行转换和标准化,以便 于后续的分析与建模。数据转换包括将数据格式统一、规范化数据 类型,例如将文本数据转化为分类标签,将时间格式进行标准化 等。标准化则是将数据处理到一个统一的尺度上,常见的标准化方 法有 Z-score 标准化和 Min-Max 缩放,这将确保不同特征在建模 时具有相同的重要性。 为了具体说明 作 流的顺畅度。 3.2.2 数据格式转换 在数据采集和处理的过程中,数据格式转换是一个至关重要的 步骤。不同的数据源和采集方式可能会导致数据以多种不同的格式 存在,这就要求我们对数据进行统一的格式转换,以保证后续处理 和分析的有效性。 首先,需要明确目标数据格式。根据具体应用场景的需求,通 常选择如下几种格式进行转换: CSV(逗号分隔值):广泛用于存储表格数据,易于阅读和处40 积分 | 200 页 | 456.56 KB | 5 月前3
算力与场景双驱动,智能软件研发进入“平台 服务”融合新阶段 头豹词条报告系列e,编程初学者学习时间得以缩 减60%,开发人员的代码优化效率提升5倍,而测试人员的代码用例采纳率亦增长了44%。此外,金山办公已成功构建WPSAI基础设施平台,积 极融入主流大型语言模型,通过统一认证、模型调试等措施,有效管理登录认证、计费、审查日志及监控等功能,并将其与核心产品线如 WPSOffice、金山文档、WPS365深度融合,为用户提供前沿的数智化办公解决方案。截至2023年12 同比增长(%) 40.3 毛利率(%) 企业分析 11 公司信息 企业状态 存续 注册资本 85017.0397万人民币 企业总部 北京市 行业 软件和信息技术服务业 法人 谌志华 统一社会信用 代码 91110000102043722T 企业类型 其他股份有限公司(上市) 成立时间 762451200000 品牌名称 中国软件与技术服务股份有限公司 经营范围 一般项目:技 中国软件与技术服务股份有限公司 2 用友网络科技股份有限公司【600588】 公司信息 企业状态 存续 注册资本 343632.3835万人民币 企业总部 北京市 行业 软件和信息技术服务业 法人 王文京 统一社会信用 代码 91110000600001760P 企业类型 其他股份有限公司(上市) 成立时间 790358400000 品牌名称 用友网络科技股份有限公司 经营范围 电子计算机软件、硬件及外部设备的技术开发、技术咨询、10 积分 | 18 页 | 5.48 MB | 3 月前3
AI大模型人工智能数据训练考评系统建设方案(151页 WORD)服务、考评计算服务和结果分析服务。这些服务通过 RESTful API 或 gRPC 进行通信,确保服务间的松耦合和高可用性。 应用层提供用户交互和业务逻辑处理功能,包括用户管理、任 务调度、权限控制、日志记录等。通过统一的用户界面(UI),用 户可以方便地提交训练任务、查看考评结果、管理数据集等。为提 升用户体验,应用层采用前后端分离的开发模式,前端使用 React 框架,后端使用 Spring Boot 框架。 的数据训练和考评提供基础支持。 首先,数据采集模块需要支持多源数据的接入,包括但不限于 传感器数据、用户行为数据、结构化数据库、非结构化文本数据、 图像数据以及视频数据等。为了实现对不同数据源的统一管理,模 块应采用适配器模式,通过配置不同的数据源适配器,灵活接入各 类数据源。适配器的设计应具备良好的扩展性,以便在未来新增数 据源时能够快速集成。 其次,数据采集模块需要具备实时数据采集和批量数据采集两 不符合逻辑或超出合理范围的数据点。同时,针对缺失值问题,可 以采用插值法或机器学习算法进行填补,确保数据的完整性。 其次,数据转换是将原始数据转化为适合模型训练的格式。常 见的转换方式包括归一化和标准化,即将不同量纲的数据统一到同 一量级,避免因数据分布不均导致的模型偏差。对于分类数据,可 以采用独热编码(One-Hot Encoding)或标签编码(Label Encoding),将其转换为数值型数据。此外,针对时间序列数60 积分 | 158 页 | 395.23 KB | 4 月前3
共 29 条
- 1
- 2
- 3
