全球计算联盟GCC:2025年异构算力协同白皮书....................................................................................20 4.2 低成本异构混合推理................................................................................................... 推到极致,也带来高 耗电和高昂的成本,2025 年推出 Blackwell B200,并抛出 2026–2027 路线图,Vera Rubin 与 Rubin Ultra 已在路上,Rubin 推理峰值 50 PFLOPS、HBM4 内存 288 GB,FP4 稀疏算 力是 B200 的 2.5 倍。 (2)AMD 把 Chiplet 思路发挥到极致,多颗小 Die 通过 Infinity 均划分, 7 但其在异构算力下平均分配因其计算能力、传输能力差异性造成模型计算量处理不同步、集 合通信数据传输有堵点,“快等慢”造成部分资源浪费。针对大模型推理过程,由于预填充 和解码阶段对算力和显存的需求量不同,传统大模型推理过程算力显存阶段互为瓶颈,造成 低水平资源利用率,需要解决异构算力协同调度问题使其匹配到最优计算任务。 8 第二章 算力协同体系架构 为了打破异构算力生态壁10 积分 | 31 页 | 1.21 MB | 1 天前3
阿里云:2025年阿里云百炼安全白皮书2.2 核心:贯穿生命周期的数据安全与隐私保护 73 2.3 扩展:支持客户弹性、灵活地应对外部攻击 78 3 阿里云百炼关键场景安全实践 82 3.1 场景一:发布并调用一个线上模型推理服务 82 3.2 场景二:使用私有数据微调一个专属模型 85 3.3 场景三:构建并运行一个 AI Agent/MCP 应用 88 4 构建可验证的信任:阿里云百炼的 90 安全承诺与未来愿景 基础设施风险:供应链漏洞、DDoS 攻击与模型资产威胁 AI 基础设施作为大模型服务正常运行的基础支撑,下述威胁直接影响大模型服务的稳 定性、安全性和商业可持续性。 ● AI 供应链漏洞风险:AI 常用的训练与推理框架、平台软件中常存在公开的高危漏洞。 若未及时修复,攻击者可借此入侵系统,控制训练环境或业务平台,导致数据泄露、 服务中断,甚至影响关键社会领域,造成严重后果; ● 拒绝服务风险:AI 系统 能力,大幅降低了 使用门槛,提升了部署效率,显著提升了业务敏捷性和创新能力。此外,MaaS 提供 了 AI 基础设施层的算力调度、存储管理、网络传输等核心支撑能力,覆盖了模型训练、 评测、部署、推理等全流程服务,从而满足不同行业对服务可用性的差异化需求。 3 公共云和 MaaS 是兼顾性能、效率、安全的 最佳解决方案 23 22 ALIBABA CLOUD MODEL STUDIO20 积分 | 59 页 | 45.36 MB | 1 天前3
AI知识库:电力行业智能转型的新底座(23页 PPT)03 应用实践: 360AI + 电力典型应用场 景 04 未来展望:多方协同共建未来电网 CONTENTS 技术引擎: 成本归零 , 引爆应用创新 成本归零:模型更强 ,且训练和推理效率持续提升 ,成本不断降低; 爆款涌现:智能体框架理论与技术持续快速发展 ,领域爆款产品不断; 门槛消失:企业算力租赁与私有化部署门槛不断降低; 2025 年 9 月 4 日国家发展改革委、国家能 RPA 工具等进行采集; • 各种结构化数据库表也可以采集; ③ 领先的 AgenticRAG 技 术 • 以 Agent 重构传统 RAG ,提升问答准确率及效果 • 长链路、多跳、事实推理效果更佳 • 跨模态数据融合应用:打通结构化与非结构化知识 ⑤ 内置企业级敏捷 Agent 平台 + 丰富的知识类技能 + 知识类智能体市场 • 专业的知识类技能 :比如文档解析、录音转写、发票识别 综合召回解决方案 ★ 问 题 分 析 意图识别 反问 / 追问 问 题 改 写 智 能 推 理 Rerank 多轮校验 上下文增强 知识问答 二次创作 分析推理 总结摘要 支持 29 种多模态数据 ,综合能力上 , 360 RAG 方案在中文评测基准 SuperCLUE-RAG 专项榜单中表现优异取得榜单第二 , 通过 了中国信通院 “可信 AI 检索增强生成产品”评估认证。20 积分 | 23 页 | 4.45 MB | 13 天前3
医疗健康大模型伦理与安全白皮书(93页 WORD)个性化治疗等, 同时指出其面临的 数据隐私安全 、 质量 一致性 、 伦理问题 、 技术基础设施及法规合规等挑战 ; 介绍开发技术框架 及数据收 集 、 训练 、 部署 、 推理应用 等环 节的技术要点 ; 说明行业大模型 在医疗领域应用框架的各组件功能;通过实例给出大模型最佳实践建议。 其二, 介绍通用大模型评测框架的任务定义 、 数据准备和评测方法 ; 概 述 2.4.部署 12 2.2.5.推理应用 13 2.3 行业大模型在医疗领域的应用框架 海量的医疗专业知识的智能系统, 专 门用 于解决 医疗和健康领域中的各 种 问题。 这些 智能利用海量专业医疗 文献 和问诊数据进行 训练了 基座大模型, 外接了专业的医疗相关知识库用于补充推理时的知识依据, 涵盖了包括疾病诊断、个 性化治疗、药物发现、医学影像分析等诸多方面。 05 PAGE 医疗健康大模型伦理与安全白皮书20 积分 | 93 页 | 12.19 MB | 13 天前3
上海科学智能研究院:2025年科学智能白皮书以及数据密集型科学 2。实验科学由自然现 象和实验结果归纳出一般性规律,但没有抽 象出经验规律背后的普适理论。理论科学基 于自然现象或实验结果,提炼科学问题并形 成科学假设,然后运用逻辑推理和数学分析, 构建普适理论,但难以在复杂系统中实验验 证。计算科学以科学模型为基础,通过数值 方法模拟复杂系统,但需要简化模型以及提 高模拟精度,以解决模拟系统精度低且计算 成本高的挑战。随着技术的发展和数据规模 学研究往往涉及跨学科的知识和数据,AI 模 型在整合不同领域的知识时存在困难。如何 使其真正参与科学假设的提出和验证,仍是 未解的难题。 为了解决这一挑战,可以从以下几个方 面寻找突破路径: 构建跨学科知识图谱、因果推理和生成 模型,整合多领域知识库,使 AI 能够从已 有知识中提取洞察并提出新颖的科学假设。 建立强化学习驱动的 AI 辅助实验设计、数 据分析、理论建模的闭环系统,实现自动化 科学发现。开发可视化工具与交互界面,将 英国 内生安全 人工智能安全 检索增强生成 博弈论 前沿模型 人工智能对齐 人工智能 极端风险 可信人工智能 动态异构 冗余架构 安全评估 智能体 可解释性 扩展定律 深度推理 0 20 40 60 80 100 120 140 0 50 100 150 200 250 300 350 400 450 500 2015 2016 201720 积分 | 29 页 | 2.74 MB | 5 月前3
2025年人工智能就绪度白皮书-企业数智化转型的Al变革路径与评估指南个充满无限可能与深刻变革的时代。AI不再是遥不可及的未来畅想, 而是赋能千行百业、重塑核心竞争力的关键引擎。AI浪潮带来了前所 未有的机遇,同时也对数字基础设施提出了严峻的挑战。海量数据的 处理、极致的低时延交互、复杂的模型训练与推理,都呼唤着一个更 加敏捷、高效、可靠且智能的AI基础设施底座。 《人工智能就绪度白皮书:企业数智化转型的AI变革路径与评估指南》 的发布,恰逢其时。它凝聚了思科与毕马威在企业AI变革转型的深度 术锁定带来的风险。其次,为了保障AI应用的高性能和优质服务,我 们必须积极引入和部署防止网络拥塞、避免数据丢包以及高效处理多 媒体数据的先进技术。这些技术的应用,将直接关系到AI模型训练的 效率和推理的精度。 伴随AI新技术的广泛应用,安全与合规问题也日益凸显。我们必须构 建完善的AI安全防护体系,通过实时检测与监控,确保AI应用的合法 合规运行。同时,要着力排除错误数据和恶意干扰,保障AI大模型推 模型市场的竞争焦点由模型参数等 底层技术比拼,逐渐转向用户流量争夺、垂直场景的轻量化解决方案等,免费策略 成为各家抢占市场份额的一大利器。例如,OpenAI不仅向免费用户开放了o3-mini 推理模型的API,还宣布GPT-5将向免费用户开放。技术路线和市场竞争的双重转 变下,大模型的“成本效益革命”正在拉开帷幕。 中国AI发 展的阶段 性态势 1.1 模型架构与能力演进 © 202520 积分 | 78 页 | 21.63 MB | 4 月前3
面向新型智算中心的以太网弹性通道(FlexLane)技术白皮书(2025年)架构的现状,打破原 有固定组合,引入灵活多通道架构,通过降速运行实时有效的规避任何通道发生 的故障,将链路可靠性提升万倍以上(助力 AI 网络互联可靠性超越 5 个 9),保 障 AI 训练和推理业务不受影响。FlexLane 技术支持在现有设备上通过软件升级快 速部署,或升级硬件实现更优的性能,同时可支持主动降速,在链路轻载和空闲 期间动态节能,为智算中心提供灵活、经济、高效的可靠性保障。 ChatGPT、Deepseek 为代表的大语言模型(LLM)的兴起,标志着 AI 进入了一个全新的发展阶段。大 模型通常拥有数千亿甚至万亿的参数,中小模型通常也有十亿参数以上,需要海 量的算力进行训练和推理。为满足庞大的算力需求,智算中心作为 AI 发展的新 型基础设施底座,正加速在全球范围内建设和部署。 图 1-1 传统数据中心与新型智算中心流量模型对比 传统数据中心主要承载企业级应用,提供云服务,如 200���������1,��� = 3 时,��� × ��� ≈ 6 × 102���������),单个服务器或链路的故障通常只会影响到部分客户端,影响范围相 对有限。 新型智算中心主要承载 AI 训练与推理业务,部署大量服务器协同工作,流量 模式与传统数据中心不同,东西向流量特征明显。在这种流量模式下,大量服务 器共同承载 AI 任务并行计算,对网络的可靠性提出了前所未有的挑战。服务器 之间逻辑0 积分 | 24 页 | 2.92 MB | 5 月前3
2025年应用全生命周期智能化白皮书。 从技术视角看,AI-Native 架构的关键在于数据与 API 的智能融合,传统企业系统沉淀的海量数据,需通过统一的 可信数据资产目录实现跨域流通,为 Agent 提供实时、高质量的训练与推理燃料;而 API 则从传统的服务接口演进为“智 能连接器”,通过动态编排与语义理解,支撑 Agent 间的自主协商与任务分解。此外随着云原生 AI 技术(如多模态大模型、 智能 Agent 开发 洞察的核心要素如下: » 3.1.1 大模型能力的突破性提升,为 Agent 提供智能化基座 自然语言理解与生成能力的跃迁:LLM 通过海量数据训练和参数规模的扩大,具备了更强的上下文理解、推理 和生成能力。GPT-4 在自然语言理解及生成能力上的突破,使得 Agent 能够更自然地进行人机交互。如医疗领域的 Agent 可根据患者症状快速生成诊断建议,教育领域的 Agent 能提供个性化学习路径规划。 (文本、图像)、领域知识(如 科研文献、行业标准)和支持动态更新的外部数据(如专利、新闻)。数据层可为模型层提供训练与推理所需的原始 数据,并通过向量化技术增强 Agent 的上下文理解能力。 模型层:构建智能化基座,涵盖通用大模型与垂直领域模型,实现模型的高效部署与推理。 工具层:将本地可调用命令及外部 API 作为 tools 进行集中管理,并通过 MCP 协议面向 LLM 提供工具 API20 积分 | 59 页 | 8.39 MB | 4 月前3
英特尔工业控制白皮书2026版·负载整合特刊-英特尔协同优化。 新一代计算平台的异构架构优势在此背景下显得尤为重要。通过整合高性能 CPU、 GPU 和专用 AI 加速器,结合先进的负载整合技术,单一平台即可同时处理实时 控制任务和复杂 AI 推理,实现了前所未有的计算效率和系统简化。这种技术创新 不仅消除了传统多系统架构的延迟和同步问题,更通过智能负载调度和资源动态 分配,显著提升了系统的整体性能和可靠性。从智能质检到自适应加工,从协作 数自调优、故障预测和性能优化。 • 多元化负载整合与资源优化:随着自动化控制与信息化、智能化的深度融合,多任务负载整合成为核心发展 方向。现代工业系统需要在单一平台上同时运行实时控制、AI 推理、数据分析、视觉处理、通信管理等多种 工作负载,通过统一的计算平台实现硬件资源的高效利用和系统成本的显著优化。在这一整合过程中,确保 实时控制任务的确定性性能、保障系统安全性、实现不同优先级任务间的有效隔离,成为了技术实现的关键 AI 驱动的控制系统变革:在智能算法基础上,AI 技术正在重新定义自动化控制架构,推动从 “传统控制 + AI 辅助” 向 “AI 原生控制系统” 的根本性转变。通过将机器视觉、自然语言处理、大模型推理等 AI 能力深度嵌入 控制回路,系统实现从被动响应到主动感知、从规则驱动到数据驱动、从固定逻辑到自主学习的全面升级, 构建具备自主决策、持续优化和协同智能的新一代控制系统。 03 英特尔助力20 积分 | 48 页 | 25.02 MB | 13 天前3
2025年新一代智能企业:应对快速发展的AI领域报告-Omdia是从企业部署战略角度。 代理型人工智能并非单一应用或技术,而是整合多种技术、方法和组件的架 构,用于创建高度自主的目标导向型人工智能代理。 人工智能代理利用基础模型和高级机器学习(ML)技术(如链式推理 (CoT))、记忆模块及外部工具,能够自主或在极少人工干预下主动规划 并执行复杂任务。 代理型人工智能的重要发展方向是多智能体系统,其中专门化的智能体在协 调框架内协同工作以实现共同目标。 多 Services Intelligence Service Click here or press enter for the accessibility optimised version 推理服 推理服务 务面 面临 临着不 着不 断 断变 变化的挑 化的挑战 战 Alexander Harrowell, Principal Analyst, Advanced Computing for NVIDIA的Dynamo项目设想将整个数据中心视为单一虚拟推理服务器。然 而,这一设想基于少数巨型模型的世界。这一愿景并未过时,但与2021年相 比,其确定性已有所降低,且仅是人工智能故事的一部分。 Source: Omdia 供应商应始终将混合需求放在心上。更好的GPU(或加速器)虚拟化是一种 解决方案,但产品战略同样重要。 市场可能存在对现代推理级GPU的需求缺口,这类GPU需具备高带宽内存与20 积分 | 30 页 | 1.80 MB | 13 天前3
共 38 条
- 1
- 2
- 3
- 4
