积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部解决方案(36)人工智能(16)维度学堂(12)白皮书(11)智能制造(10)前沿探索(9)城市民生(7)行业赋能(6)研究报告(5)能源双碳(4)

语言

全部中文(简体)(69)

格式

全部PDF文档 PDF(46)DOC文档 DOC(16)PPT文档 PPT(7)
 
本次搜索耗时 0.014 秒,为您找到相关结果约 69 个.
  • 全部
  • 解决方案
  • 人工智能
  • 维度学堂
  • 白皮书
  • 智能制造
  • 前沿探索
  • 城市民生
  • 行业赋能
  • 研究报告
  • 能源双碳
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • DOC文档 DOC
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 京东物流超大规模仓储系统智能监控(32页)

    会 2 0 1 9 · 上 海 站 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 京东物流超大规模仓储系统智能监控揭秘 付正全 架构师 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 目录 问题及挑战 1 超大规模监控系统解决方案 2 面向AIOPS的智能监控最佳实践 3 规划&展望 4 G O P S 全 球 运 维 大 会 2 频繁变化的资产,不可靠的CMDB  运维专家匮乏  复合型人才匮乏:AI和算法工程师+运维开发 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 目录 问题及挑战 1 超大规模监控系统解决方案 2 面向AIOPS的智能监控最佳实践 3 规划&展望 4 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 对监控的认识  什么是监控?  为什么需要监控? 题  智能客服机器人 提供智能客服机器人服务,根据人员信息自动推测可能的问题及解决方案 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 目录 问题及挑战 1 超大规模监控系统解决方案 2 面向AIOPS的智能监控最佳实践 3 规划&展望 4 G O P S 全 球 运 维 大 会 2 0 1 9 · 上 海 站 故障快照  出现告警自动抓取现场快照信息
    0 积分 | 32 页 | 2.32 MB | 20 天前
    3
  • pdf文档 智算产业发展研究报告(2025)-天翼智库

    恩宣布启动“投资人工智能(InvestAI)”计划,目标筹集 2000 智算产业发展研究报告(2025) 6 亿欧元用于人工智能投资,并专门设立 200 亿欧元基金用于建设 欧洲人工智能超级工厂,以训练高复杂度、超大规模的 AI 模型。 4 月 9 日,欧盟发布“人工智能大陆行动计划” [5],战略核心是将 欧盟固有优势(如高质量人才储备和强大传统产业基础)转化为 AI 发展的关键加速器,力争成为人工智能领域的全球领导者。 2024 年资本支出总额为 2460 亿美元,较 2023 年(1510 亿美元)大幅 增长 63% [16]。Synergy Research Group 数据显示,截至 2024 年底, 全球超大规模数据中心数量达 1136 个,其中,亚马逊、微软和谷 歌三家合计占据全球总容量的 59%,其次是 Meta、阿里巴巴、腾 讯、苹果、字节跳动等。2025 年,微软、谷歌、亚马逊和 Meta 继续扩大 式部署成为新方向。谷歌已组建跨多个智算中心的大规模集群,完成 Gemini Ultra、Gemini 1.5pro 等大模型训练;OpenAI 计划分五个阶 段建设多个智算中心,并通过多智算中心互联最终打造百万卡级别的 超大规模基础设施。中国电信基于国产化算力完成跨百公里千亿参数 模型在千卡规模下的分布式智算中心互联验证,初步证实大模型跨智 算中心分布式协同训练的可行性。 3、AIDC 基础设施持续升级,绿色化转型不断深化
    10 积分 | 48 页 | 3.12 MB | 1 天前
    3
  • pdf文档 2025年金融操作系统AI创新与融合实践报告

    ⚫ 针对自主创新芯片服务器优 化 ⚫ 针对自主创新数据库的性能 优化 ⚫ 针对资源利用率的有效提升 15年磨砺 海量实践铸成Ten ce ntOS Ser ver • 支撑腾讯云上用户超大规模的部署和运 行,持续不断的优化,规避故障,提高 稳定性,经受用户关键业务考验 190万+CVM数 经受腾讯云用户关键业务考验 • 从2010年起持续对Linux内核进行贡献 • 连续6年入选全球“KVM开源贡献榜 打破TPC-C 世界纪录 TDSQL+TencentOS组合 国内主流数据库厂商 互认证(部分) 云原生操作系统:轻量安全的云原生底座 国内主流云平台/容器平台 互认证(部分) 基于腾讯云超大规模云原生运营过程中积累的自主研发能力,支持腾讯核心业务的高效运转。云原生操作系统具备深度优化的云原生能力,专为容器、微服 务等架构打造,提供 NetTrace、SLI及 RUE 混部系统等核心特性
    20 积分 | 13 页 | 2.55 MB | 1 天前
    3
  • pdf文档 2025年电子元件供应链的未来之路报告-从过剩到平衡

    单元)专为高算力AI(人工智能)任务设计, 能在与超大规模的定制化软件层协同运行时 显著提升能效。 Broadcom(博通)CEO(首席执行官)Hock Tan预测该领域将迎来爆发式增长,2027年 的AI(人工智能)及AI(人工智能)网络相关 营收预计将从当前的150至200亿美元跃升 至600至900亿美元。亚马逊AWS、谷歌 云与微软Azure等超大规模云服务商正与 Broadcom(博通)联合开发AI(人工智能) 点击此处下载 这一趋势虽预示着专用芯片市场扩容,但业 界专家普遍认为其互补性作用远大于替代性: 通用型GPU(图形处理器)在基础AI(人工 智能)算力中占据主导地位,定制化芯片则 专注于解决超大规模场景需求。此类技术演 进不仅重塑了AI(人工智能)基础设施格局, 更为电子元器件产业注入了持续的增长动能。 AI(人工智能)硬件引领半导体产业革新 HPC(高性能计算)与服务器预计将在2025年
    20 积分 | 18 页 | 5.59 MB | 13 天前
    3
  • ppt文档 火山引擎新一代边缘云解决方案(16页 PPT)

    影视制作 装修设计 数字可视化 渲染场景 资源编排 CPU 云主机 GPU 云主机 高效云盘 VPC 网 络 弹性 IP 火山引擎边缘云 超大规模边缘资源 超高产品性能 超流量场景验证保障 高性能标准硬件资源 NVMe SSD IO 时延 <1 ms 内容分发和加速网络创新 边缘计算节点创新 异构算力 CPU\GPU\ARM 自研高性能实例 PPS>700W 支持自定义限速 多种计费模式 云边镜像 ¢ 键 分 发 带 超大规模的接入点 单节点海量流量承载能力 智能调度 提供质量稳定加速资源 自研的传输优化、智 能缓存、动态路由 边缘渲染 边缘智能 火山引擎边缘云产品创 新 新基础 底座 离线渲染
    10 积分 | 16 页 | 1.93 MB | 1 天前
    3
  • pdf文档 2025年6G“零中断”网络设计白皮书-中移智库

    发二 次危机,故障影响范围持续扩大、定位复杂度进一步增加,恢复时间延 长。  做好风险化解,避免大面积瘫痪故障:数据网元(例如UDM、HSS)作 为移动通信网核心所在,该设备的故障将引发超大规模的用户重注册、 进而引起信令风暴,需要考虑相应机制分担数据网元故障后的风险与压 力。  做好动网预演,避免操作不当带来风险:部分事故是由于管理机制不完 善,在网络升级改造、调整维护时缺少预演预验证手段,导致一些误操 机制和4/5G网络形成新形态的高低制式间的互补与兜底。 1.3 6G 网络可靠性挑战分析 6G网络将覆盖更广泛的应用场景,赋能多行业、多领域的智能化服务。ITU-R 在2023年明确了6G六大核心场景,包括沉浸式通信、超大规模连接、极高可靠低 时延、感知与通信的融合、人工智能与通信、泛在连接。这些新场景普遍要求网 络提供更高稳定性,同时对网络可靠性也提出一些新挑战。 图 2 ITU 定义 6G 六大核心场景 1 P2P 动态组网,需实 时组建协作网络并共享环境信息,现有网络的静态子网管理与路由机制难以满足 动态协同需求,亟需提升网络动态组网与智能调度能力以保障业务可靠性。 1.3.3 超大规模连接,瞬时信令冲击加倍 6G 超大规模连接场景下,海量物联设备接入(每平方千米可达百万至亿级) 对网络可靠性形成多重挑战。终端规模百倍于 5G 时代,网络异常恢复时的大规 模重连易引发信令风暴,远超现有网络抗 “浪涌”
    0 积分 | 36 页 | 2.50 MB | 1 天前
    3
  • pdf文档 2025年超节点发展报告-华为&中国信通院

    支撑大模型创新及云服务场景 加速人工智能科学计算,服务算法创新 助力行业企业智能化升级 系统特征 AI 技术从单点能力突破迈向系统能力创新 超节点技术产业生态发展格局 基础特征:大带宽、低时延、内存统一编址 超大规模 扩展特征:多级缓存池化、资源灵活配比 超高可靠 灵活切分 大模型计算基础设施的挑战 小结 小结 CONTENTS 目录 超节点发展报告 02 当我们站在人工智能大模型技术飞速发 一体化的设计思维,将计算、存储、网络与运维管理深度融合,锻造出高性能、高效率、高可靠的 单一逻辑实体。它标志着一个全新时代的开启——智算基础设施正从松散组合的算力堆叠阶段,迈 入软硬协同、全局优化的超节点阶段,旨在有效破解超大规模 AI 训练与推理中所面临的扩展性瓶颈、 效率损耗与能耗墙难题,为 AI 的持续创新提供坚实、高效、绿色的算力基座。 为系统分析超节点技术的发展逻辑、技术创新、产业价值以及未来趋势,我院与华为及相关单位 人工智能高速演进背景下,算力需求呈指数级增长,大模型竞争已进入 “参数规模摸高” 与 “训 练效率提升” 并行的新阶段。Scaling Law(规模定律)将以多元形态长期生效,持续推动人工智 能技术突破能力边界,而超大规模 Transformer、MoE(混合专家模型)、稀疏注意力模型等,已 成为可扩展模型的核心架构方向。在复杂的混合并行策略下,随着并行规模持续扩大,系统节点间 通信带宽与可用显存容量成为制约大
    20 积分 | 31 页 | 4.79 MB | 1 天前
    3
  • pdf文档 2025年云智算光互连发展报告-中国移动

    云智算光互连发展报告 前言 本发展报告面向未来智算中心超大规模扩展、AI 大模型极致性 能与高效部署的核心需求,联合产业合作伙伴共同提出先进光互连 技术架构与演进路径,旨在突破传统电互连在带宽、距离与能效方 面的根本性瓶颈,构建高带宽、超低时延、低功耗及高可靠性的新 一代智算中心互连底座,为人工智能、高性能计算及云服务等关键 业务的持续跃升提供坚实支撑。 本发展报告的版权归中国移动云能力中心所有,并受法律保护。 算力集群的 带宽瓶颈、延迟损耗与扩展桎梏,为“N+X”智算节点的弹性组网提 供核心支撑。这一升级并非简单的硬件替换,而是覆盖数据、控制、 管理多平面的系统性算网协同革新。随着移动云呼和浩特、贵阳等 超大规模智算中心的落地,单集群 AI 加速卡规模已突破 2 万张,算 力达 6.7EFLOPS,传统基于电交换的 Super Spine 在横向扩展中逐 渐暴露性能、成本、扩展性的三重矛盾。未来大规模智算集群性能 问题,以智算中心场景为核心,推动 NPO/CPO 的应用落地,解决发 热、芯片良率等问题,同步验证 OIO 在 GPU 互连领域的应用效果。 对于光交换领域,在 OCS 方向,目前已经实现初步商业化。光 交换作为支撑超大规模 Scale-Out 架构的关键基础设施,在智能中 心中的应用前景十分乐观,短期来看,OCS 最有可能进行小范围的 试点应用,长期来看,光分组交换将具有更大的潜力。 云智算光互连发展报告 附录:
    20 积分 | 32 页 | 2.80 MB | 13 天前
    3
  • pdf文档 中国信通院:央国企智算创新实践报告(2025年)

    纳米工艺芯片。 在大模型方面,大模型正在加速人工智能产业化进程,推动算力服务 普惠普适。DeepSeek、百度“文心一言”、阿里巴巴“通义千问”等国内 央国企智算创新实践报告(2025 年) 4 超大规模模型正加速演进,认知能力不断提升。同时,“预训练大模 型+下游任务微调”的新范式,已成为破解人工智能技术落地难题的重 要突破口。国内厂商纷纷加码大模型投入与研发,如 DeepSeek 也通 硬件设备,使其具备 智算服务能力 优点:可充分利用已有资 源,建设成本相对较低 缺点:对技术要求较高,通 常难以实现大规模、超大规 模算力升级 适用于已有一定规模、智 算需求并非超大规模,且 对成本较为敏感的企业 自建 全新规划、选址、设 计并构建智算中心 优点:可根据业务需求进行 定制化设计,自主性较强, 安全性较高 缺点:建设成本相对较高, 建设周期长 算平台可实现对单集群算力资源管理,以及多集群的协同管理,单集 群管理方面,可支持单一智算中心内异构算力资源的调度与算力加速, 能够根据任务对算力资源的需求,在智算中心内为任务分配、调度相 应计算资源,并支持超大规模集群算力加速能力,通过优化调度逻辑, 提升软硬件协同效率,强化集群整体计算性能,满足高负载、高算力 需求场景的运行效率。多集群协同管理方面,可实现跨域多个异构算 力集群资源的统一管理、编排和调度,当接收到业务请求时,平台可
    10 积分 | 48 页 | 1.24 MB | 1 天前
    3
  • pdf文档 湖南大学:2025年智算中心光电协同交换网络全栈技术白皮书

    层的关键挑战与发展路径; • 提出面向未来的技术演进方向与标准化路线建议。 我们期望本白皮书能为智算中心网络领域的研究人员、设备制造 商、运营商与服务提供商,提供系统的参考框架与技术洞察,共同推 动构建超大规模、超大带宽、超低时延、超高可靠的新一代智算中心 网络基础设施。 本白皮书的编制工作得到了国家自然科学基金项目(编号: U24B20150)的支持,在此表示感谢。 目录 前言....... 在训练的过程中需要进行频繁且复杂的通信。这就要求构建 GPU 之 间的全互联高速数据通道,以确保数据的高效传输,最大限度减少 GPU 间通信耗时。那么,如何满足大规模 GPU 之间的高效通信,构 建超大规模、超大带宽、超低时延、超高可靠的智算网络,已成为当 前智算网络发展重要挑战。 智算中心网络如图 1-1 所示,可按通信范围分为机内互联 (Intra-Node)与机外互联(Inter-Node)两类: 限制,传统电交换机的带宽密度已难以满足大模型训练增长的流量需 求。光交换具有大带宽、可靠性高、功耗小、组网灵活的特点,相比 电交换机具有高带宽、低能耗的优势,是突破网络核心侧带宽密度瓶 颈的最佳技术路线,适用于超大规模 AI 训练集群。光电协同架构[6] 可以将光交换的高带宽、低延迟和电交换的灵活控制能力整合起来, 提供 TB 级带宽,充分发挥光与电两者优势。 表 1-2 光电交换技术比较 光电协同 全电交换
    20 积分 | 53 页 | 1.71 MB | 1 天前
    3
共 69 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 7
前往
页
相关搜索词
京东物流超大大规规模大规模超大规模仓储系统智能监控32智算产业发展研究报告2025天翼智库年金操作操作系统AI创新融合实践电子元件电子元件供应供应链未来过剩平衡火山引擎一代新一代边缘解决方案解决方案16PPT6G中断网络设计白皮皮书白皮书中移年超节点华为中国信通年云智算光互连移动中国移动国企湖南南大大学湖南大学年智算中心光电协同交换全栈技术
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩