未来网络发展大会:2025东数西算算网协同调度业务场景白皮书为“容器/作业”,并提供“最优匹配、按需启停、精准计量、效用付 费”的任务式计算服务。任务式计算服务的时间特征具有“临时性”、 空间特征具有“跳跃性”、流量特征具有“突变性”,即平时不用时任 务不存在只有用时才临时启动任务,本次启动在 A 地 X 供应方而下 次可能启动在 B 地 Y 供应方,平时不用时流量为 0 而用时流量会随 计算服务负载大幅波动。那么,传输服务如何能够满足并匹配任务式 计算服务的临时性、跳跃性、突变性?这必然要求网络资源的可调度。 《东数西算算网协同调度-业务场景白皮书》(简称白皮书)的编 制,是基于国家东数西算“安全新总线”项目所开展的算网协同工程 实践。“安全新总线”通过 400Gbps 互联了国家八大枢纽节点、以及 多个国家超算中心,可根据任务时延、带宽需求提供广域确定性网络 传输质量,并通过网络操作系统开放网络资源的调度能力,算网协同 调度平台即原生构建其上。 白皮书以业务场景视角切入,对东数西算算网协同调度的调度架 构、应用场 精准调度匹配需求的算力及网络资源,完成用户任务的部署 与执行。 资源供方入口:资源供应方可通过该入口向平台注册算力资 源,同时登记账户信息等相关内容,实现资源发布、调度、 使用、计量、计费及结算的全业务流程闭环。 协同调度模块:通过协同任务调度、流量调度与数据调度, 满足算力消费者对系统在算力、网络、存储等多维度的使用 ● 需求。 任务调度模块:接受协同调度的调控,聚焦算力维度需求,20 积分 | 118 页 | 8.35 MB | 1 天前3
基于大模型的具身智能系统综述得益于近期具有世界知识的大规模预训练模型的迅速发展, 基于大模型的具身智能在各类任务中取得了良好的 效果, 展现出强大的泛化能力与在各领域内广阔的应用前景. 鉴于此, 对基于大模型的具身智能的工作进行了综述, 首先, 介绍大模型在具身智能系统中起到的感知与理解作用; 其次, 对大模型在具身智能中参与的需求级、任务级、规划级和动作 级的控制进行了较为全面的总结; 然后, 对不同具身智能系统架构进行介绍 而如何利用目前飞速发展的计算能力与人工智能 (Artificial intelligence, AI) 技术提高具身智能的表 现则成为学界与产业界的关注重点. 最近的研究表 明, 通过扩大语言模型的规模, 可以显著提高其在 少样本学习任务上的表现, 以 GPT-3 (Generative pre-trained transformer 3)[4] 为代表的大语言模型 (Large language model, LLM) 在没有进行任何参 数更新或微调的情况下, 仅通过文本交互来指定任 务和少样本示例就能很好地完成各类任务. 在此之 后, 具有优秀泛化能力与丰富常识的基础模型在计 算机视觉、自然语言处理等领域都展现出令人瞩目 的效果. GPT-4[5]、LLaMA[6]、LLaMA2[7]、Gemini[8]、 Gemini1.5[9] 等大语言模型能与人类进行流畅的对 话, 进行推理任务, 甚至进行诗歌和故事的创作; BLIP (Bootstrapping20 积分 | 19 页 | 10.74 MB | 1 天前3
DeepSeek智慧政务数字政府AI大模型微调设计方案..................................................................................45 3.1.1 政务场景特定的任务类型..........................................................47 3.1.2 微调效果的评估指标.................... 量参差不齐。项目将建立统一的数据清洗和标注流程,确保训 练数据的准确性和一致性。 2. 模型泛化能力:政务场景复杂多样,模型需具备较强的泛化能 力,能够适应不同的政务任务和场景。为此,项目将采用多种 数据增强技术和多任务学习策略,提升模型的适应性和鲁棒性。 3. 安全性保障:政务数据涉及敏感信息,模型在处理过程中需确 保数据的安全性和隐私性。项目将引入加密技术和访问控制机 制,确保数据在处理和传输过程中的安全性。 提取和决策 支持的准确性不足。 其次,政务场景中的文本处理任务多样且动态变化。常见的任 务包括但不限于:文本分类、信息抽取、问答系统、自动摘要、情 感分析等。例如,市民提交的咨询问题可能涉及多个领域,需要快 速准确地分类并分发给相应部门处理。此外,舆情监测需要实时分 析大量的社交媒体文本,识别出潜在的社会热点和风险。这些任务 对模型的泛化能力和适应性提出了高要求,传统的定制化模型难以0 积分 | 167 页 | 464.82 KB | 5 月前3
未来网络发展大会:2025算电协同技术白皮书算电协同技术白皮书 2 为 68.6%,青海、甘肃等新能源大省也面临类似困境。在此背景下, 算力负荷的时空可转移特性(如“东数西算”工程中的冷数据处理西 迁)和灵活调节潜力(如 AI 训练任务的错峰调度)为电力系统提供 了新的调节手段。研究表明,通过优化调度,全国数据中心可提供约 3000 万千瓦的灵活调节能力,相当于 30 座百万千瓦级抽水蓄能电站。 此外,在“双碳”目标约束下,算力产业的绿色转型需求迫切,但目 尽管我国风光发电装机超 14.5 亿千瓦(2024 年底),但间歇性、波动 性导致西部“弃风弃光”与东部“缺电”并存,而算力中心的灵活负 载特性可成为破解这一困局的关键——通过 AI 调度算法将非实时计 算任务转移至绿电富集时段,理论上可提升新能源消纳率 15%以上, 实现“比特”与“瓦特”的时空耦合。政策层面,“东数西算”工程已 明确要求 2025 年国家枢纽节点数据中心绿电占比超 80%, 《加快构建 提出通过余热回收、光热发电协同等技术提升能源利用效率,并要求 试点项目在 2024 年 8 月后开工,2025 年底前形成阶段性成果。 同时,《2025 年能源工作指导意见》将算电协同纳入新型电力系 统建设重点任务,强调需与“东数西算”工程联动,推动国家枢纽节 点数据中心绿电占比超 80%的目标。国家数据局等五部门联合印发的 《加快构建全国一体化算力网的实施意见》则提出“算力与绿色电力 第九届未来网络发展大会白皮书10 积分 | 66 页 | 1.70 MB | 1 天前3
未来网络发展大会:2025分布式算力感知与调度技术白皮书布式算 力是一种新型的计算模式,在实时感知多类型、多数量计算设备资源 状况的基础上,借助统一的度量范式对资源量进行对比与评估,再结 合任务的计算强度、时延要求和数据依赖等特征,以及网络带宽和能 量预算等约束,运用自适应的智能调度算法将大规模的计算任务分散 到不同的计算节点上,从而实现高效的数据处理和分析。本白皮书阐 述了分布式算力感知与调度的背景、体系结构、关键技术、应用场景、 发展 础设施。这一理 念旨在构建一个能够动态感知全网算力资源,并根据任务需求进行智 2 能化、自动化、最优化调度的新型信息基础设施,降低计算延迟与成 本,支撑新型智能化应用的落地。 分布式算力是相对于传统集中式算力(如单一超级数据中心)而 言的算力部署与利用模式,其核心是将一个大的计算任务分解成若干 个小任务,然后把这些小任务分配给地理、网络层级或逻辑上相互独 立的多个节点。这些计算节点可涵盖数据中心、边缘设备(如基站、 一形态,边缘算力是前者重要组成部分,是分布式思想的一种具体体 现。边缘算力强调“地理近端性”,即计算能力的部署靠近数据源, 以满足低延迟和高实时性的需求;而分布式算力更关注“全局最优性”, 侧重任务的分解与协同,以处理大规模和复杂的计算任务可能调度至 边缘、核心云或两者协同,例如“云-边-端”分层推理。 分布式算力感知与调度的核心在于“感知”与“调度”两个相互 依存、紧密结合的环节。“感知”是基础和前提,它指的是系统具备20 积分 | 73 页 | 2.15 MB | 1 天前3
信息服务-AI Agent(智能体):从技术概念到场景落地概念又被重 新拾起。大模型成为了智能体目前最完美的载体,有望完成从概念到实际应用的 蜕变。用户在 Agent(智能体)模式中给 AI 设臵目标和身份,并提供 Prompt(提 示词)。AI 自主拆分任务、使用工具、完成工作,用户仅负责设立目标、提供工具 资源和监督结果。 赋能两类实体领域,成本与效益的博弈:AI Agent 目前的应用大多都在概念层面, 但随着大模型竞争加快、政策鼓励研发投入、更多企业参与 智能体将从概念走向实际应用,成为各行业的重要助力。通过多模态大模型,智 能体能够整合图片、语音等异构数据,提高任务处理效率,并解决跨行业、跨领 域的问题。技术方面,智能体具备长期和短期记忆、自主规划、工具使用和自动 执行任务的能力。这些能力不仅能提高工作效率,还能为用户提供更好的体验。 单智能体通过试错学习适用于简单任务,而多智能体则在复杂环境中通过合作或 竞争调整最佳策略。当前,智能体主要应用在自动化和情感需求等领域,但商业 解锁科技树的成功率(蓝色是 GITM) ............................................................. 27 图 43 各模型完成任务成功率对比 .............................................................................. 27 图 44 豆包智能体的对话界面10 积分 | 33 页 | 4.71 MB | 1 天前3
2025年面向具身智能的大小模型协同算法研究和实践报告别人告诉我这就是盒子 可以打开,可以装东西 我主动体验什么是盒子 被动抽象接受 主动具体体验 重要 意义 具身智能因其能自主产生智能行为和适应性,是通用人工智能的可能起点 3 具身智能的关键任务 导航 问答 操作 4 具身智能的核心目标 5 具身智能的核心要素 具身载体(Agent) 具身模型(Model) 智能 算法 物理 载体 相比具身载体的日趋成熟,具身模型的算法研究方兴未艾、挑战众多 端到端VLA 端测SDK (2025.03) 具身大脑 端到端VLA 9 具身大模型离实用还有差距 2023及之前 2025 及之后 2024 大模型 大数据 基本能力 单任务 单本体 单场景 多任务 单本体 单场景 通用智能系统 多本体 多场景 Scaling Law 在大语言模型和多模态大模型 上都得到了验证 感知和理解 决策和规划 执行和协作 评估和反馈 端到端 传统多模态大模型能够作为“大脑”? n 传统VLMs在具身智能场景(长程闭环操作、时空智能等)中面临严峻挑战 以‘把锅放到抽屉里’为例,该任务涉及多步骤的长时间交互,包括移动、 抓取、放置等操作,并需要与锅、抽屉等物体进行持续交互 GPT-4o在具身任务中表现欠佳 12 回顾:具身模型应该考虑哪些能力? n 技能泛化、真实交互、本体扩展 Skill (技能泛化) Reality (真实交互)20 积分 | 37 页 | 4.24 MB | 1 天前3
人机对话技术及动态(57页PPT)闲聊 • 问答 • 任务型对话 • 推荐 3 笨笨系统结构 Zhang W N, Liu T, et al. Benben: A Chinese Intelligent Conversational Robot[C]// ACL 2017, System Demonstrations. 2017:13-18. 4 “ 聊天”示例 5 “ 知识问答”示例 6 “ 任务执行”示例 7 评测指标: • Sentence ACC • 领域、意图识别和语义槽填充全做对! • 特点(难点) • 符合任务型对话的真实应用场景 • 多领域性、多意图性 http://conference.cipsc.org.cn/smp2019/evaluation.html 13 任务一结果排名( 2019.07.15 ) SMP-ECDT III • 个性化对话生成评测 • 给定特定用户属性,生成符 15 任务二结果排名( 2019.07.15 ) 人机对话主要技术方向 特定域内输入和输出的空间有限 尽快完成任务结束对话 为了完成某项任务而达到某个目标 输入和输出空间无限大 尽可能延续对话 没有明确的对话目标 任务型对话(任务执行) ( Task-oriented Dialogue ) 开放域聊天(聊天)20 积分 | 56 页 | 4.34 MB | 1 天前3
2025年DeepSeek-R1Kimi 1.5及类强推理模型开发解读报告开创RL加持下强推理慢思考范式新边界 ➢ 得益于强大的推理能力与长文本思考能力,DeepSeek R1在复杂任务上表现卓越,成为开源领域的又 一里程碑,标志着开源社区在与闭源大模型(如 OpenAI o1 系列)的竞争中迈出了关键性一步。 ➢ DeepSeek-R1 在数学代码任务上表现突出 ➢ Deepseek R1在AIME2024上获得了79.8%的成绩,略高于OpenAI-o1-1217。在MATH-500上,获得97 217。在MATH-500上,获得97.3% 的惊人成绩,表现与OpenAI-o1-1217相当。 ➢ 在编码相关的任务中表现出专家水平,在 Codeforces上获得了2029 Elo评级,在竞赛中表现 优于96.3%的人类参与者 ➢ DeepSeek-R1 在知识类问答上推动科学探索边界: ➢ MMLU \ MMLU-Pro \ GPQA Diamond 等 STEM- related related 榜单上取得良好表现 ➢ R1 展现出强推理模型在 AI-Driven Research 的潜力 ➢ 在长文本依赖任务如 FRAMEs 和 事实性推断任务 Simple-QA上表现突出 5 回顾:Pre-Training Scaling Law ➢ Pre-Training Scaling Laws: 预训练模型上广泛观察到的现象,协调了计算量C、模 型参数量N和数据大小D之间的关系10 积分 | 76 页 | 8.39 MB | 5 月前3
AI知识库数据处理及AI大模型训练设计方案(204页 WORD)关系抽取准确率达到 90% 以上 - 知识 图谱覆盖率达到 80%以上 再次,设计并训练一个具备强泛化能力的 AI 大模型。基于处 理后的数据,采用预训练-微调的技术路线,训练一个能够适应多 场景任务的 AI 模型。模型的训练过程将注重优化参数效率和数据 利用率,确保模型在有限资源下仍能保持高性能。模型训练的关键 目标包括: - 模型参数量控制在 100 亿以内 - 训练时间不超过 30 性和代表性。数据处理阶段将采用自动化工具与人工审核相结合的 方式,以确保数据质量。在 AI 模型训练方面,项目将采用深度学 习技术,包括预训练模型(如 BERT、GPT 等)的微调,并结合迁 移学习、多任务学习等策略,提升模型的泛化能力和应用效果。此 外,项目还将设计并实现一套高效的计算资源调度系统,以支持大 规模分布式训练,确保模型训练的效率和稳定性。项目的最终目标 是为企业或研究机构提供一套完整的知识库与 重复数据、纠正明显的错误、填补缺失值以及统一数据格式。例 如,对于日期格式不一致的情况,需将其统一为 ISO 8601 标准格 式。同时,对于文本数据,需进行分词、去除停用词、统一大小写 等处理,为后续的自然语言处理任务奠定基础。 在数据清洗的基础上,需进行数据标注和分类。对于结构化和 半结构化数据,可采用自动化工具进行标注,如使用正则表达式匹 配特定模式。对于非结构化数据,尤其是文本数据,需借助人工标 注60 积分 | 220 页 | 760.93 KB | 4 月前3
共 195 条
- 1
- 2
- 3
- 4
- 5
- 6
- 20
