积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部维度学堂(77)白皮书(77)

语言

全部中文(简体)(77)

格式

全部PDF文档 PDF(71)DOC文档 DOC(3)PPT文档 PPT(3)
 
本次搜索耗时 0.072 秒,为您找到相关结果约 77 个.
  • 全部
  • 维度学堂
  • 白皮书
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • DOC文档 DOC
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 2025采用自同步技术的构网型光伏逆变器-高比例新能源时代电网稳定性的核心支撑白皮书

    20 积分 | 11 页 | 23.31 MB | 22 天前
    3
  • word文档 医疗健康场景引入DeepSeek AI大模型可行性研究报告(144页 WORD)

    病变检测:通过训练好的模型,系统能够自动识别影像中的病 变区域,并进行分类,如肿瘤、炎症、骨折等。 4. 诊断建议:基于检测结果,系统能够给出初步的诊断建议,并 生成详细的报告,供医生参考。 为了进一步提升系统的准确性,可以采用以下策略:  多模态融合:结合不同类型的影像数据(如 CT 与 MRI),进 行综合分析和判断,以提高诊断的全面性。  持续学习:通过不断地输入新的病例数据,更新和优化模型, 使其能够适应不断变化的医疗环境和新的疾病类型。 最具影响力的特征。这不仅可以减少模型的复杂度,还能提高模型 的泛化能力。例如,在心血管疾病预测中,可以通过特征重要性分 析确定血压、血脂、血糖等关键指标,作为模型的输入变量。 在模型构建阶段,DeepSeek 技术采用深度学习算法,如卷积 神经网络(CNN)、循环神经网络(RNN)和长短期记忆网络 (LSTM),来构建高精度的预测模型。这些算法能够捕捉数据中 的非线性关系和时序特征,从而提高预测的准确性。例如,对于癌 的精准评 估。 此外,模型验证与优化是确保模型性能的重要环节。通过交叉 验证、ROC 曲线分析等方法,可以评估模型的预测能力,并通过调 整超参数、集成学习等策略进一步优化模型性能。例如,可以采用 集成学习中的随机森林算法,结合多个单一模型的预测结果,以提 高模型的稳定性和准确性。 在这一过程中,还需要注意以下几点:  数据隐私与安全:在数据的采集、存储和处理过程中,必须遵 循相关法律法规,确保患者隐私的保护。
    20 积分 | 151 页 | 370.68 KB | 1 月前
    3
  • pdf文档 2025AI供电的未来:重新定义AI 数据中心供电白皮书-英飞凌

    com/wepowerai 2 目录 Adam White 寄语 3 引言 4 一、现代处理器的供电 5 预测一:垂直供电将成为现代处理器的关键技术 5 预测二:服务器主板将采用高压直流供电架构 7 二、AI 服务器机架的供电 12 预测三:AI 服务器机架的功耗将超过 1 兆瓦 12 预测四:AI 的能耗需求将推动电源架的功率等级突破 100 千瓦 13 数据中心内采用全新 的配电体系。此外,数据中心作为用电大户,也需具备负载调节能力,并能够为电网提供辅助服务。 本白皮书将探讨当下及未来在“从电网到核心”理念下,为 AI 提供电力的可能情景,并阐述其基础技术概念。 5 一、现代处理器的供电 预测一:垂直供电将成为现代处理器的关键技术 图形处理单元(GPU)以及专用于 AI 负载的处理器(例如,张量处理单元(TPU))正在采用最先进的工艺制程(例 电流消耗预计将在十年内攀升至 10,000 A。这种极高的电流水平以及对瞬态负载响应的严苛要求,成为电压调节模 块(VRM)在 12 V 典型中间总线电压下为处理器供电时,所面临的最大挑战。 传统的横向供电方式采用分立功率级和独立电感,但在如此高的电流下,不仅占用空间庞大,还会在供电网络(PDN) 中造成显著损耗。因此,未来电能将通过主板,以垂直供电的方式,传递至处理器背面。 6 图 2:VRM 解决方案从分立功率级到背面垂直供电模块演进
    10 积分 | 24 页 | 14.75 MB | 22 天前
    3
  • pdf文档 湖南大学:2025年智算中心光电协同交换网络全栈技术白皮书

    机外互联:用于跨服务器或跨机柜的 GPU 通信,需依赖高速网 络结构实现。当前主流方案采用电交换芯片构建以太网或 IB 网络, 常见架构包括 Fat-Tree、Leaf-Spine、DCell、BCube。这些结构通过 多层交换机实现大规模互联,支撑分布式训练中的全互联需求。 图 1-1 智算中心网络与网络协议栈 无论采用机内互联还是采用机外互联,都要采用电交换芯片来做 网络流量交换。然而,随着模型规模和节点数的增加,电交换面临带 摩 尔定律逐渐失效,交换芯片的更新迭代速度明显放缓,芯片交换容量 难以实现持续增长。目前主流商用电交换芯片已发展至 102.4 Tbps 级 别,例如 Broadcom Tomahawk 6 采用 3nm 制程工艺,可提供多达 12 8 个 800 G 端口或 64 个 1.6T 端口。而国产交换芯片仍停留在 7nm 制 程的 25.6Tbps 交换容量,瓶颈效应更加严重。然而在实际部署中, 练来说,动态时延由 10us 增加至 1000us,GPU 有效计算时间占比将 降低 10%左右。同样,大模型推理对网络时延也有着更高的要求,以 确保能够为用户提供优质的推理服务。 传统数据中心网络普遍采用多层电交换架构,通过网卡与交换机 连接多个计算节点,数据包在传输过程中需要经过多个交换节点的中 转。受制于电交换“存储—转发”的工作机制,数据包必须在交换机 内部进行排队等待,多层级的交换路径使得这一排队延迟被进一步放
    20 积分 | 53 页 | 1.71 MB | 1 月前
    3
  • pdf文档 全球计算联盟GCC:2025年异构算力协同白皮书

    。 4 1.2 算力发展现状 国外以英伟达、AMD 为首的两大芯片巨头凭借其技术优势,在算力领域长期占据领先 地位,在全球范围内,两大芯片巨头占据全球算力市场 34%的份额: (1)英伟达采用“单封装双芯粒”路线,把算力密度和内存带宽推到极致,也带来高 耗电和高昂的成本,2025 年推出 Blackwell B200,并抛出 2026–2027 路线图,Vera Rubin 与 Rubin 将延续“多芯粒+大内 存”策略,试图以性价比和能效比撕开英伟达的生态护城河。2025 年 6 月的 Advancing AI 大会上,AMD 发布 MI350 系列(MI350X/MI355X),采用 CDNA4 架构、台积电第二代 3 nm、 1850 亿晶体管、288 GB HBM3E、峰值 2.3 PFLOPS,与 B200 针尖对麦芒,2026 年的 MI400 更将迈入 2 nm,432 全互联架构,搭建“芯片—XPU-Lite 框架— 千卡 1.2 TB/s XPU-Link 集群—百度文心大模型”四级闭环,已在百度内部提供 90%以上文 心系列训练算力,日均稳态负载 85%+。 (3)壁仞科技采用 Chiplet 架构设计大算力芯片,其首款 GPGPU(General-Purpose Computing on Graphics Processing Units)产品 BR100 在 2022
    10 积分 | 31 页 | 1.21 MB | 1 月前
    3
  • pdf文档 面向大规模智算集群场景光互连技术白皮书(2025年)-中移智库

    B/s级)且无收敛的互连 能力;二是算力密度高,由单个或多个机柜构成,包含32个以上甚至 到千卡的GPU数量,不断逼近电互连物理部署极限;三是能效PUE高, 超节点单机柜功率可达40kW以上,采用液冷为主、风冷为辅的散热方 案,配合柜级集中电源供电,在提供更高供电效率的同时大幅降低数 据中心PUE。 面向大规模智算集群场景光互连技术白皮书 (2025) 3 为了实现更高的集群算效水平,互连技术方案的演进迫在眉睫。 Engine)集成在可插拔模块中,如下图所示,通过PCB(PCB, Printed Circuit Board)板级走线与有独立基板的xPU(GPU, NPU, Swtich, etc)相连。目前市场主力产品的速率已达800G,未来采用硅光技术可 达1.6T水平,封装向高密度QSFP-DD/OSFP等演进。但面向智算未来高 速率1.6T/3.2T以上的互连场景下,可插拔光模块将面临信号完整性恶 化、依赖数字信号处理器(DSP,Digital 智算集群未来演进需求的潜力,后续将聚焦该类技术展开具体分析。 表 2-1 传统电交换和光交换(OCS)对比分析 分析维度 传统电交换 OCS 原理 传统电交换采用队列存 储-转发方式,根据报文 头信息将不同的数据包 转发至不同的输出端口 内部采用MEMS技术(或压 电陶瓷等其他技术),直 接将光信号折射到对应 的输出端口 工艺制程 要求高,依赖先进工艺, 51.2T需要3nm制程 要求低,180nm成熟工艺
    10 积分 | 52 页 | 5.24 MB | 1 月前
    3
  • pdf文档 华为:2025践行主机现代化:主机上云技术白皮书

    模数据处理和高并发事务的挑战。操作系统则专为这类主机设计,具备强大的资源管理能力和并行处理性能。 主要特点: 高性能:采用多处理器集群架构,实现大规模并行计算,处理器集成专用加速单元,通过硬件级加密引 擎实现加密运算的加速处理 高可靠:硬件组件(处理器、内存、存储)普遍采用冗余设计,不会因单点硬件故障而引起系统中断 高安全:主机通常采用内置硬件加密模块,实现数据的加密处理与密钥管理,从而保障数据在存储、传 输及处理过程中具备机密性与完整性 级和功能迭代依赖原厂支持,流 09 程繁琐且周期长,难以及时响应业务变化(主机厂商硬件升级周期通常为 3~5 年),远滞后于业务对敏捷创 新的需求(如互联网业务的周级迭代)。此外,主机技术架构采用专属协议与接口,新应用或第三方工具难以 接入集成,与云平台、分布式数据库的集成需开发专用接口,集成成本高且易形成“技术孤岛”。 (2) 扩展性不足无法应对大规模业务挑战 传统主机技术栈主要依赖 大数据、AI、区块链等技术,但主机技术栈对此支持 有限:一方面,传统主机的编程语言(如 COBOL、PL/I)与现代开发工具及编程语言兼容性不足,原有开 发环境与工具链较为陈旧,且与云原生开发所采用的 Java、Go、Python 等语言存在明确的兼容壁垒;另一 方面,主机系统通常依赖传统的数据存储格式和协议(如 VSAM、IMS 等),而现代的大数据技术框架(如 Hadoop、Spark)使用分布式文件系统(如
    20 积分 | 63 页 | 32.07 MB | 1 月前
    3
  • pdf文档 2025年新一代智能企业:应对快速发展的AI领域报告-Omdia

    Applications 人工智能(AI)正以惊人的速度持续改变我们的日常生活,重塑各行各业、 经济体系和社会结构。 得益于计算能力的指数级增长、算法效率的显著提升以及数据的广泛可用 性,人工智能的采用已成为全球商业战略的核心组成部分。企业不再讨论是 否要整合人工智能,而是专注于如何快速实施并扩展人工智能以获得竞争优 势。 尽管近期人工智能领域取得了快速进展,但我们必须清醒地认识到,这仅仅 是发 代理型人工智能对基础设施提出更高要求,需要与内部系统、外部环境、工 具及数据源进行集成。 代理型人工智能高度自主的特性也引发了关于可靠性、透明度和安全性的关 键担忧。 为确保成功实施,企业应避免盲目采用代理型人工智能,而应聚焦于其能力 能为简单解决方案带来真正优势的具体应用场景。 提升商业智能 实现可扩展的自动化 创建自适应工作流 在复杂流程中提供智能协调 人工智能成熟度较低的组织可利用预配置的领域专用代理或低代码平台,同 施(如电力电网)时。 在离线状态或解耦方式下运行AI和ML的能力,为提升运营环境和降低连接 系统相关风险带来了重大机遇。 网 网络 络效率 效率 — 通过本地数据处理,传输成本显著降低,从而降低了采用和 实施的门槛。 更小的AI模型可能将开启AIo 更小的AI模型可能将开启AIoTT时 时代 代 图 图1:您的物 1:您的物联 联网部署策略中包含哪些服 网部署策略中包含哪些服务 务? ?
    20 积分 | 30 页 | 1.80 MB | 1 月前
    3
  • pdf文档 2025年算力运维体系技术白皮书-中国信通服务

    差异。传统数据中心芯 片架构相对单一,主要以 CPU 为算力核心,基于 CPU 和云存储集群提供的相关云服务, 通常由多个物理服务器组成,通过网络连接形成一个虚拟化的计算环境。算力中心则 通常采用芯片异构计算架构,结合 CPU、GPU、NPU、TPU 等多种芯片,形成高并发的分 布式计算系统,应用于神经网络模型的训练及推理等。从芯片结构演进来看,传统数 据中心侧重于通用计算任务的性价比和 10 - (1). 双路市电同时失压:启用“2+1”柴发并机冗余,满足 T3-T4 级 15s 切换。 (2). UPS 并机不均流:每月做模块均流校验,偏差>5%即调整。 (3). 电池热失控:采用 AI 电池管理系统(BMS)+氢气传感器联动排氢。 2.1.3 通风空调系统运维 2.1.3.1 系统范围 离 心 / 螺 杆冷 水 机 组 、 板 式 换 热 器 、 冷 却 塔 、 冷 冻 大,及时发现 并处理可以避免 CPU 因过热而损坏。 (2). 监控与告警处理方面,熟悉监控工具,通过监控数据发现服务器运行异常 并处理告警,确保服务器的高可用性。 (3). 对于故障诊断,采用大数据分析与机器学习算法。收集服务器历史故障数 据和对应的硬件状态信息,训练故障诊断模型。当服务器出现异常时,模型能 够快速分析当前硬件状态数据,定位故障根源,如判断是某个内存模块损坏还 是硬
    10 积分 | 74 页 | 1.36 MB | 22 天前
    3
  • pdf文档 英特尔工业控制白皮书2026版·负载整合特刊-英特尔

    更复杂和精确的控制要求更 短的周期时间,降至 62.5 微秒。 • 希望降低复杂自动化系统中 昂贵 PLC 的物料清 (BOM) 成本和总体拥有成本 (TCO)。  新一代 CPU 采用先进的 Intel 7 和 Intel 4 工艺技术,CPU 性能提速达到 1.35 倍。  提升了 Intel® Smart Cache 的容量, 是之前平台的两倍多,通过避免不必 要的内存访问实现更快的处理速度。 Speed Shift 技术,可以通过提高并固定实时核工作在比基频更高的频率,优化实时性能。它不影响其它 核的依据负载和 TDP 的条件浮动变化频率。 • 英特尔® 酷睿™ Ultra 系列处理器采用先进的异构架构设计,GPU 独立 die 与 CPU 物理分离且不共享三级高速缓存, 从架构层面消除了缓存争用对实时性能的影响。Per-Core C-state 技术实现了颗粒度更细的电源管理:实时核心保 系统集成的复杂性以及维护 的困难。 • 希望通过将不同的硬件系统 整合为一个来降低物料清单 (BOM) 成本。 • 从运营技术 (OT) 到信息技 术 (IT) 的集成更加简便。  新一代 CPU 采用先进的 Intel 7 和 Intel 4 工艺技术,具有异构架构,支持不同工作 负载运行,并提供更好的隔离性。  硬件虚拟化技术加持:VMX、VT-D 和 SR-IOV。  在选定的
    20 积分 | 48 页 | 25.02 MB | 1 月前
    3
共 77 条
  • 1
  • 2
  • 3
  • 4
  • 5
  • 6
  • 8
前往
页
相关搜索词
2025采用同步技术构网型光伏逆变逆变器比例能源新能源时代电网稳定定性稳定性核心支撑白皮皮书白皮书医疗健康场景引入DeepSeekAI模型可行研究可行性可行性研究报告144WORD2025AI供电未来重新定义数据中心数据中心英飞凌湖南南大大学湖南大学年智算光电协同交换网络全栈全球计算联盟GCC异构算力面向大规规模大规模智算集群互连中移智库华为践行主机现代现代化上云一代新一代智能企业应对快速发展领域Omdia年算力运维体系中国信通服务英特特尔英特尔工业控制2026负载整合特刊
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩