积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部解决方案(5)城市民生(3)研究报告(2)企业案例(2)维度学堂(2)白皮书(2)人工智能(1)能源双碳(1)教育科技(1)行业赋能(1)

语言

全部中文(简体)(10)

格式

全部PDF文档 PDF(6)DOC文档 DOC(2)PPT文档 PPT(2)
 
本次搜索耗时 0.037 秒,为您找到相关结果约 10 个.
  • 全部
  • 解决方案
  • 城市民生
  • 研究报告
  • 企业案例
  • 维度学堂
  • 白皮书
  • 人工智能
  • 能源双碳
  • 教育科技
  • 行业赋能
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • DOC文档 DOC
  • PPT文档 PPT
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • pdf文档 智算无界:AIDC的超越和重构-上海贝尔

    与市场格局 正在加速重构。 生成式人工智能基于海量数据训练、推理生成新的输出,并能以文本、音频和图像等形式创建新内容。 智算中心是支持生成式AI工作负载的新型数据计算中心,基于AI计算架构,提供AI应用所需算力服务、数据 服务和算法服务的算力基础设施,它融合高性能计算设备、高速网络以及先进的软件系统,为人工智能训练 和推理提供高效、稳定的计算环境。据测算,2023年全球生成式AI市场规模,包括硬件、软件以及服务等, 放等,提升用户体验与商业价值。DeepSeek算法与芯片深度适配,不仅降低对高端GPU的依赖,也推动算 力供应链自主化。高效的算法一方面减缓了AI训练的算力需求,另一方面AI应用的普及导致AI训练与推理的 侧重点发生转变,预计未来几年推理算力占比将远超训练部分。 1.2 技术破局:从GPU集群到分布式协同一体 建设和运营智算中心需要巨大的资本投入,包括购买昂贵的AI芯片、建设高密度机房等。AI工作负载对 网络 在云计算阶段,云服务器主要是CPU服务器,每台服务器配置1-2颗CPU芯片即可。AI工作负载分为两 大类 — AI训练以及AI推理。人工智能训练过程将首先创建AI模型。它包括数据集合,模型选择,模型训练, 模型评估,模型部署和模型监控,涉及密集使用GPU。模型开发完成后启动推理业务,为最终用户提供业务 支持或与模型交互。因此大模型的训练基于更大规模的GPU并行计算,单服务器内部署GPU数量提升至4颗、
    10 积分 | 38 页 | 9.31 MB | 22 天前
    3
  • pdf文档 2025年算力运维体系技术白皮书-中国信通服务

    通用算力场景:面向日常计算需求,涵盖个人终端、通用服务器计算能力,应用 于消费互联网、行业互联网等领域的常规计算能力,通常在云计算及分布式计算中, 以 CPU 为代表。 智算算力场景:支撑人工智能算法训练与推理的专用计算资源,应用于人工智能 计算领域,处理自然语言、图像识别、语音识别等任务,以 GPU 为代表。 超算算力场景:面向科学研究、工程仿真等高性能计算场景的集群化计算能力, 应用于需极高计算 基础设施的稳定运行,侧重 高可用性以确保业务连续性;服务对象多为企业内部业务系统或基础网络服务; 算力运维核心目标高效释放算力资源,侧重算力密度最大化与能耗比最优;服 务对象主要是高性能计算、人工智能训练/推理、云计算等对算力需求极强的 场景。 (2). 传统运维管理模式标准化,流程成熟,侧重流程合规与故障快速恢复;团 队需掌握服务器部署、网络排障等基础技能,对硬件底层原理深入理解要求较 低;算力 通常由多个物理服务器组成,通过网络连接形成一个虚拟化的计算环境。算力中心则 通常采用芯片异构计算架构,结合 CPU、GPU、NPU、TPU 等多种芯片,形成高并发的分 布式计算系统,应用于神经网络模型的训练及推理等。从芯片结构演进来看,传统数 据中心侧重于通用计算任务的性价比和灵活性,而算力中心注重人工智能类型的特定 计算需求及运算效率,并要求具有强大的图形处理功能,需要制定人工智能算力硬件 和存储解
    10 积分 | 74 页 | 1.36 MB | 22 天前
    3
  • ppt文档 基于智能体的虚拟电厂技术方案(48页 PPT)

    器人或其他形式的系统,具备一定的自主性和智能性。 02 智能体定 义 简单反射型智能体 简单反射型智能体主要是基于固定的条件 - 动作规则,它们的智能行为受限于事先定义好的规则,缺乏复杂的推理和学习能力, 不 能灵活地决策和解决问题。这种类型的智能体智力水平非常有限,无法适应环境的变化。 基于模型的智能体 基于模型的智能体主要利用条件操作规则,即通过查找满足当前情况的条件规则进行工作。此类智能体能够利用智能体内部状态和 方式,通过获取外部实时信息、 访问专有的信息知识库等方式 更新信息。大语言模型擅长文 本处理、意图理解等,但是对 于计算等操作能力较弱。因此 需要使用工具提升大语言模型 的操作能力,常用工具包括模 块化推理、知识和语言。 01 规划 规划主要是对子目标的管理和 拆解,将大的任务拆解为小的 子任务,并对这些子任务进行 管理,从而有效地处理复杂的 任务。同时,规划会基于过去 将查询路由到适当的 工具,或依赖其自身 知识进行回答。 Reflection: 在响应 前先审查并修正答案, 大多数 LLM 系统中也 可添加反思步骤。 ReAt: 通过迭代方式 推理如何解决问题, 执行操作,观察结果, 并决定是否采取下一 步行动。 Plan-then- Execute: 将任务分解 为子步骤,然后逐步 执行每个子步骤任务 完成。 6
    30 积分 | 48 页 | 17.03 MB | 22 天前
    3
  • word文档 餐饮服务基于DeepSeek AI大模型应用方案(159页 WORD)

    发请求,并且响应时间需控制在用户可接受的范围内。通过压力测 试和性能调优,可以确保系统在高负载情况下仍能稳定运行。 其次,需要考虑大模型部署的硬件和软件需求。deepseek 大 模型通常需要高性能的 GPU 集群进行推理,因此需要评估现有硬 件资源是否满足需求,或者是否需要采购新的设备。同时,操作系 统、框架版本以及依赖库的兼容性也需要进行详细检查,以避免在 部署过程中出现兼容性问题。 此外,数据安全与隐私保护是不可忽视的技术因素。餐饮服务 模型剪枝与量化:针对资源受限的餐饮服务场景,可以对模型 进行剪枝和量化处理,减少模型的大小和计算复杂度,同时保 持其性能。通过移除不重要的神经元或层,降低模型的参数 量,并通过量化技术将浮点数权重转换为低精度表示,从而加 快推理速度。 o 剪枝率:设定为 10%-20%,逐步修剪模型,观察性能变 化。 o 量化位宽:将权重从 32 位浮点数降至 8 位整数,减少内 存占用。 4. 错误分析与再训练:对模型预测错误的案例进行详细分析,找 在部署环境准备阶段,首先需要确保服务器硬件和软件环境满 足 DeepSeek 大模型的运行要求。硬件方面,建议采用高性能 GPU 服务器,至少配备 NVIDIA Tesla V100 或更高版本的 GPU, 以确保模型训练和推理的高效运行。服务器内存应不低于 128GB,存储空间至少为 2TB SSD,以支持大规模数据处理和模型 存储。 软件环境方面,操作系统建议选择 Ubuntu 20.04 LTS 或 CentOS
    10 积分 | 169 页 | 451.98 KB | 22 天前
    3
  • ppt文档 数字孪生水利建设要点(32页 PPT)

    利用知识图谱和机器学习等技术实现对水利对象 关联关系和水利规律等知识的抽取、 管理和组合应用, 为数字孪生水利提供智 能内核, 支撑正向智能推理和反向溯因分析, 主要包括水利知识和水利知识引 擎, 水利知识经知识引擎组织、 推理后形成支撑研判、 决策的信息。 一 攻克数字孪生水利建设技术方面的难点 知识平台尚处于 起 步阶段, 无成功经验可以 借鉴。 3
    10 积分 | 32 页 | 2.14 MB | 22 天前
    3
  • pdf文档 鲸哨:2025年未来课堂AI智慧教室教学装备产业发展报告

    指在IT基础设施、基础软件、应用软件、信息安全等领域实现自主可控的国家战略,在教育领 域表现为国产芯片、操作系统等的应用。 大模型 指参数量巨大(通常在十亿级以上)的深度学习模型,具备通用能力,如语言理解、逻辑推理 等。LMM特指大型多模态模型。 垂直大模型 针对特定行业(如教育、医疗)的专业数据进行深度训练和微调的大模型,比通用大模型更具 专业性和准确性。 AI Agent AI Agent指的是能够自 技术架构。 在该架构中,端侧设备负责处理高频、低延迟的即时 性任务,如课堂互动、实时反馈和基础数据采集;云 端则承担需要海量算力和全局数据视野的重度计算任 务,包括大规模AI模型的训练与推理、跨区域学情数 据的挖掘分析、以及长周期学习路径的智能规划。 混合式架构实现了计算任务的智能解耦与高效分配。 云端的大模型经过训练后,可以通过模型压缩、量化 等技术,将其轻量化版本部署到端侧设备,实现特定 0规范为硬件载体、以英特尔酷睿Ultra处理器内置的AI引 擎为算力核心、辅以OpenVINO软件开发套件,旨在为智慧教室提供端侧AI能力,为交互平板(IFPD)赋予边 缘AI处理能力,使其能够独立完成多模态数据分析、大语言模型推理等复杂任务,从而驱动各类智慧教学应用的 落地。 英特尔最新一代OPS 2.0 端侧AI+教育能力 Intel AI OPS for Smart Classroom 亮点分析 产品定位 异构
    20 积分 | 90 页 | 22.08 MB | 22 天前
    3
  • pdf文档 2025面向未来的中国数据中心:绿色低碳与高可靠性白皮书-西门子

    截至 2024 年底,全国在用算力中心机架总数已突破 880 万 标准机架 1,算力总规模达到 280 EFLOPS(每秒百亿亿次浮 点运算),其中智能算力占比显著提升至 32%。 以大模型训练与推理为代表的人工智能技术革命,正在推动 数据中心形态和基础设施需求发生结构性变革。与传统互联 网服务相比,人工智能算力任务在计算密度、持续运行时间 和电力消耗等方面均呈现数量级提升,这对数据中心的供电 候不间断运 行,任何电力中断都可能导致停机甚至数据丢失。在高负载、 连续运行的工况下,数据中心的电气系统需满足多层面的稳 定性要求。 与传统数据中心电力负荷相对平稳不同,AIDC 在大模型训练 和推理过程中,算力负载波动快速且不可预测,供配电系统 需具备更迅捷的响应能力。 一些常见运行问题——如设备老化、负载波动、短路、谐波 污染干扰等可能引发电气设备故障,或受到如自然灾害、电 网扰动等外部环境的干扰。
    10 积分 | 19 页 | 8.22 MB | 22 天前
    3
  • pdf文档 【方法】一种基于改进D-S证据的智慧水利网络安全态势评估方

    据 理 论 有 着 非 常 多 的 优点.首先,它可以有效处理数据的不确定性问题;其次,DGS 可以通过对证据的积累不断减少假设集;最后,它无需知道条 件概率以及先验概率.因此,相较于贝叶斯推理法等同类型 算法,DGS具有很强的容错能力,能够很好地将信息归类到未 知或未定中,并且 DGS证据理论对先验效率的依赖性相对于 贝叶斯等同类型算法来说较低[4].但是,DGS理 论 也 存 在
    10 积分 | 6 页 | 2.03 MB | 22 天前
    3
  • word文档 全域治理物业城市一网统管数据平台项目解决方案(93页WORD)

    全域治理物业城市一网统管数字平台项目 3 2 图 6-4 总体部署架构 (五)模型技术架构 随着数据集和模型的规模不断增大,大模型架构设计已经 成为人工智能领域的一个热门话题。在大规模训练和推理任务 中,设计高效的大模型架构是提高性能和减少计算资源消耗的 关键。以下为本项目部分设计大模型架构的关键因素: 全域治理物业城市一网统管数字平台项目 33 图 6-5 模型技术架构 (六)总体网络架构
    10 积分 | 96 页 | 7.98 MB | 22 天前
    3
  • pdf文档 《智慧协作时代》汤玛斯·戴文波特-257页

    the Industrial Enterprise (Los Angeles: University of 254 California Press, 1994). 2. 有关 AI 在理解和推理上,目前和近期有哪些限制的出色讨论,请 见:Melanie Mitchell, Artificial Intelligence: A Guide for Thinking Humans (New York:
    10 积分 | 257 页 | 6.00 MB | 22 天前
    3
共 10 条
  • 1
前往
页
相关搜索词
智算无界AIDC超越重构上海海贝贝尔上海贝尔2025年算力运维体系技术白皮皮书白皮书中国信通服务基于智能虚拟电厂方案48PPT餐饮DeepSeekAI模型应用159WORD数字孪生水利建设水利建设要点32未来课堂智慧教室教学装备产业发展报告面向面向未来数据中心数据中心绿色低碳可靠可靠性高可靠性西门门子西门子方法一种改进证据网络安全网络安全态势评估全域治理物业城市一网统管平台项目解决解决方案93协作时代汤玛斯戴文波特257
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩