积分充值
 首页  上传文档  发布文章  登录账户
维度跃迁
  • 综合
  • 文档
  • 文章

无数据

分类

全部人工智能(37)前沿探索(37)

语言

全部中文(简体)(37)

格式

全部PDF文档 PDF(31)PPT文档 PPT(4)DOC文档 DOC(2)
 
本次搜索耗时 0.021 秒,为您找到相关结果约 37 个.
  • 全部
  • 人工智能
  • 前沿探索
  • 全部
  • 中文(简体)
  • 全部
  • PDF文档 PDF
  • PPT文档 PPT
  • DOC文档 DOC
  • 默认排序
  • 最新排序
  • 页数排序
  • 大小排序
  • 全部时间
  • 最近一天
  • 最近一周
  • 最近一个月
  • 最近三个月
  • 最近半年
  • 最近一年
  • ppt文档 电子AI+系列专题:DeepSeek重塑开源大模型生态,AI应用爆发持续推升算力需求

    DeepSeek-R1 采用分阶段强化学习架构演进,包括冷启动阶段、面向推理的强化学习、拒绝采样 与监督式微调、全场景强化学习等。 l AI 应用爆发在即,算力需求持续攀升,关注 ASIC 及服务器产业链。 Scaling Law 与“涌现”能力是大模型训练遵循的重要法则,随着 ChatGPT 引领全球 AI 浪潮, 国内外科技公司纷纷发布 AI 大模型,截至 24 年 7 月,全球 AI 资本开支持续高速增长,带 来 AI 服务器市场规模大幅提升,预计到 26 年全球 AI 服务器出货量将达到 237 万台,对应 2023-2026 年 CAGR 为 26% 。 l 重点推荐组合:中芯国际、翱捷科技、德明利、工业富联、沪电股份、联想集团、国芯科技、澜起科技、芯原股份、龙芯中科、东山精密、景旺电子。 l 风险提示:宏观 AI 应用推广不及预期、 AI 投资规模低于预期、 AI 服务器渗透率提升低于预期、 应用爆发持续推升算力 需求 请务必阅读正文之后的免责声明及其项下所有内容 Deep Seek 发展突 飞猛进 ,领跑开源大模型技术 与生态 A I 应用爆发在 即 ,算力 需求持续攀升 , 关注 AS IC 及服务器产 业链 风险提示 请务必阅读正文之后的免责声明及其项下所有内容 02 01 03 目录 DeepSeek 发展突飞猛进,领跑开源大模型技术与生 态 请务必阅读正文之后的免责声明及其项下所有内容
    10 积分 | 38 页 | 1.95 MB | 6 月前
    3
  • pdf文档 2025年智能化时代数据库自主可靠运维白皮书-腾讯云

    置合理的告警阈值。通过告警系统及时发现 异常,确保故障在早期阶段被发现,避免问 题扩大化。 构建或提升业务系统全链路监控能力: 不仅监控数据库本身,还要监控与数据库相关的上下游系统(如应用服务器、网络设备、应用系 统、中间件、操作系统等),问题的根源不仅限于数据库本身,可能涉及其他系统。 在福建海峡银行,腾讯云 DBbrain 数据库智能管家提供了包含数据库在内的软硬件全链路可 观测能力,赤兔平台主要提供对 故障、机房故障、业务故障、性能故障等 几类应急场景,并在实践中设立了应对措施。 �.� 建立数据库和应急流程标准化 �.� 制定完善的应急预案 在硬件故障方面:需要建立硬件冗余机制,如冗余服务器、存储设备的热备机制。硬件故障发生 时,能够快速切换到备用硬件,确保数据库的持续运行。 在软件故障方面:需要建立软件的冗余机制,如数据库的多实例部署、数据库的热备机制等。软件 故障发生时,能够 用机房,确保业务的持续运行。 在性能故障方面:应加强性能监控和分析,做到实时监控数据库性能指标,使用分析工具识别性 能瓶颈。可对慢查询进行优化,添加或调整索引以提高查询效率。在必要时增加数据库服务器的 CPU、内存或存储资源。 此外,数据库应急预案与应用系统、基础环境、网络架构等结合联动,形成完整的应急预案。 数据库运维知识库是保障运维效率、传承经验、降低风险的核心资产,其建设关键在于结构化积
    20 积分 | 89 页 | 2.06 MB | 1 天前
    3
  • pdf文档 2025年超节点发展报告-华为&中国信通院

    路口,一个清晰的趋势已然浮现:大模型正沿着 “规模定律”不断演进,从预训练扩展到覆盖预训练、后训练、逻辑推理的全流程,其参数与集群 规模实现“双万” 跨越,行业模型落地需求专业化。 传统的服务器集群架构在这场变革中瓶颈愈发明显。千亿级模型一次梯度同步产生的 TB 级数据 让传统以太网带宽难以承受;同时,伴随算力规模扩大,万级处理器带来的故障常态化,对自动化 运维与 RAS 能力提出了更 AI 基础建设的共识。 超节点架构引领技术革新,重构计算能力边界。超节点架构依托高速互联技术,将大带宽的互联 范围,从单台服务器扩展到整机柜以及跨机柜的大规模集群,超节点域内可达百 GB/s 级通信带宽、 纳秒级时延、TB 级超大内存,实现集群能力跃迁。相较“服务器集群”,超节点代表的是弹性、池 化、开放的系统能力:既能以极致吞吐支撑万亿参数训练,也能以低时延满足企业级大规模推理的 刚性需求。 算力需求空前增长的时代,大模型训练成本的指数级增长,正迫使行业将 重心从单纯的算力堆砌转向底层计算架构的根本性创新。每一次计算范式的更替,都会重塑产业版图。 今天,生成式人工智能正把基础设施从“堆叠服务器的集群”,推向“像一台巨型计算机运作的集 成单元”。这不是简单的规模扩张,而是一场关于带宽、能效与系统韧性的全面再造。预计到 2030 年,相关基础设施投资将接近 7 万亿美元(Noffsinger
    20 积分 | 31 页 | 4.79 MB | 1 天前
    3
  • pdf文档 新华网&腾讯云:2025年国产数字化升级标杆实践报告

    践中,国产数字化升级与组织提效、生产提效密切融合,助力企 业转型升级走深向实有成效。 从技术架构的协同演进上,信息技术融合创新与数字化转型在三个层面呈现高度重合与协同: 一是基础设施层,其中服务器、网络、存储设备为代表的基础硬件和IaaS、PaaS为代表的云平台,共同构建自主创新的数字底座,为 上层应用提供既自主创新又技术先进的运行环境;基础软件层中国产操作系统、数据库和中间件在实现自主创新的同时,不断融入云计 TencentOS Server操作系统支持主流国产芯片,具备CentOS原地替换能力,其V3版本专为数据库与AI场景优化,已在千万级节 点部署。新华通讯社部署TencentOS完成3000+台服务器原地替换,首次迁移成功率达95%,按计划迁移成功率达100%,核心平 台运行稳定。 一 、奠定产业根基:自主创新的云与OS,推动数字化底座转型 国产数据库、大数据平台等核心技术不断取得新突破。 算力 管理 qGPU虚拟化 国产可信 TencentOS Server 通过了安全可靠测评(2024年第1号) 符合《操作系统政府采购需求标准(2023年版)》要求 性能增强 针对国产芯片服务器专项性能优化 针对典型业务场景专项性能优化 支撑TDSQL打破TPC-C & TPC-DS双榜世界记录 荣获金融信创实验室数据库基座推荐方案 存量业务无缝支持 CentOS原地替换 简单、
    20 积分 | 45 页 | 20.65 MB | 1 天前
    3
  • ppt文档 电子AI+系列专题:复盘英伟达的AI发展之路

    FY2Q24 收入指引为 107.8-112.2 亿美元 (YoY 60.8% 至 67.4% , QoQ 49.9% 至 56.0%) 。 l 产业链相关公司:算力:英伟达、海光信息、寒武纪、全志科技;服务器:工业富联、国芯科技、环旭电子、闻泰科技、易德龙; PCB :沪电股份、 胜宏科技、东山精密、鹏鼎控股; AI 终端: 晶晨股份、瑞芯微;先进封装: 长电科技、通富微电、芯原股份;存储:深科技、江波龙、佰维存储、 2592000 秒),则对应 GPT-3 训 练所需算力为 121528TFLOPS ;结 合 A100 有效算力 78TFLOPS ,得到所需 GPU 数量为 1558 个,对应 AI 服务器为 195 台。 l 推理阶段:按谷歌每日搜索量 35 亿次进行假设,估算得到 GPT-3 每 日 需推理 token 数为 79330 亿个,则推理所需运算次数为 4760*10^21FLOPs 根据上述结论, GPT-3 新增 GPU 价值达到英伟达公司 FY23 收入的 39.4% 。 综合 IDC 及 TrendForce 数据估算, GPT-3 新增 AI 服务器 数量达到 2021 年全 球 AI 服务器数量的 65.35% 。 GPU 相关 A100 PCle H100 PCle Tensor Float 32(TF32) 156TFLOPS 756TFLOPS 有效算力
    10 积分 | 30 页 | 1.27 MB | 6 月前
    3
  • pdf文档 华为:鲲鹏原生开发技术白皮书(6.0修订版)

    AArch32 指令翻译软件为鲲鹏服务器提供 AArch32 特性,基于鲲鹏服务器在 ARM 原生场景下能够完全 兼容 AArch32 的应用,保障 AArch32 V8.0 指令应用 100% 兼容。同时也支持 pre-translator 特性,优化翻译后的 APP 启动时间,提升客户体验。 Kbox 云手机容器 Kbox 云手机容器提供了软件定义手机的基础能力,其基于鲲鹏服务器,在 Docker 容器技术和 容器技术和 Android 开源项目 (AOSP)基础上,实现了将 GPU 设备直通到容器的轻量级设备仿真层架构方案,提供了基于 Android 系统的云 手机容器参考方案。可实现在鲲鹏服务器支持 100 路 720p@30fps 的 Kbox 云手机容器高并发(以托管场景为例, 云手机并发密度取决于客户云手机实际应用),具有高密度、高兼容性等商业价值。 云游戏 / 云手机 APK 端云协同引擎 指令流引擎 基础云手机 云手机 Turbo 套件 Kbox ExaGear AArch32 指令翻译软件 Ubuntu/openEuler Android 9.0/11.0 鲲鹏服务器 GPU 编码卡 云手机 Turbo 套件 视频流引擎 云手机管理系统 Guest OS Host OS 硬件平台 虚拟化 ExaGear 华为交付 开源 & 第三方 客户 &ISV
    10 积分 | 112 页 | 17.64 MB | 5 月前
    3
  • pdf文档 华为:2025年华为混合云现代化运维体系核心能力及最佳实践报告

    智慧应用 虚拟化资源池 FusionSphere/VMware/… 存量云化架构 大数据 服务 数据库 服务 云管理 服务 计算 服务 存储 服务 网络 服务 现代化云化架构 服务器 存储 网络 服务器 存储 网络 政务 财务 交通 政务 财务 交通 金融 制造 交通 政务 能源 全栈云服务 数据库 | 大数据 | 大模型 | 软件开发工具链 智能中间件 分布式消息 | 微服务引擎 因和影响范围,并启动紧急修复流程;对于一般的 技术咨询问题,响应时间可设定为2小时内,通过电 话、邮件或在线客服平台为用户提供解答和指导。 故障恢复及时率:明确各类问题从发现到彻底解决 的最长时间限制。如对于常见的服务器硬件故障, 设定解决时间为4小时,包括故障诊断、备件更换、 系统恢复和测试等环节;对于复杂的应用程序漏洞 修复,根据漏洞严重程度和修复难度,解决时间可 在1至5个工作日不等,确保问题得到有效、彻底的 置数量等,给出配置建议,提高运维人员效率。 3.2.1 运维对象 基于需要运维的对象开展日常运维工作,缩短问题 发生到解决的时间,提升运维团队效率,主要运维 对象可分为如下几类: 基础设施:计算服务器、存储、网络等硬件设备 基础服务:计算、存储、网络等基础云服务 数据库服务:云数据库、文档数据库、分布式数据 库中间件等服务 应用服务:分布式缓存、应用性能、应用运维、应 用与数据集成、消息队列、应用运维中间件等服务
    20 积分 | 53 页 | 8.80 MB | 1 天前
    3
  • pdf文档 电子行业AI+系列专题:边缘AI,大语言模型的终端部署,推动新一轮终端需求-20230531-国信证券-25页

    完成(训练时间为 2592000 秒),则对应 GPT-3 训练所需算力为 121528TFLOPS;结合 A100 有效算力 78TFLOPS,得到所需 GPU 数量为 1558 个,对应 AI 服务器为 195 台。 推理阶段:按谷歌每日搜索量 35 亿次进行估计,假设每次访问提问 4 次,每次提问+ 回答需处理字数 425 字,平均每个字转换为 token 比例为 4/3,则每日 GPT-3 日为单位(推理时间为 86400 秒),则对应 GPT-3 推理所需算力为 55*10^6TFLOPS; 结合 A100 有效算力 78TFLOPS,得到所需 GPU 数量为 706315 个,对应 AI 服务器为 8.8 万台。 图12:算力计算公式 图13:近年推出的大预言模型有效算力比率 资料来源:NVIDIA,国信证券经济研究所整理 资料来源:NVIDIA,国信证券经济研究所整理 表3:大预言模型算力测算 亿美元 53.2 亿美元 资料来源:NVIDIA,国信证券经济研究所整理 因此,训练大模型必然需要采用分布式方案。不仅要满足算力的需求,还要解决上千 块 GPU 的分布式训练问题,需要考虑到上百台服务器之间的通信、拓扑、模型并行、 流水并行等,这也是复现 GPT-3 的核心难点,模型发布后一年也只有 NVIDIA、微软等 大厂成功复现,目前开源的 GPT 模型库就主要是 NVIDIA 的 Megatron-LM
    10 积分 | 25 页 | 2.20 MB | 6 月前
    3
  • pdf文档 DeepSeek大模型及其企业应用实践

    云厂商的基础设施和资源。适用场景: n 弹性需求:需要根据负载动态调整资源 n 快速扩展:业务增长迅速,需快速扩展系统 n 成本优化:希望通过按需付费模式降低IT成本 云端部署 DeepSeek大模型部署在企业内部服务器或数据中 心,数据和应用完全在企业内网中运行。适用场景: n 数据敏感:对数据安全要求高,需完全掌控数据 n 合规要求:需满足特定行业或地区的合规要求 n 网络限制:内网环境无法连接外部网络 其在特定场景下的表现效果与可靠性 模型优化 最后,企业需要将AI大模型无缝集成到现有 的业务系统中,实现自动化决策或增强用户 体验 应用集成 优化后的模型需要被部署到合适的环境中, 如云端、边缘计算或本地服务器等。这要求 企业具备强大的技术实力和丰富的运维经验 模型部署 4.7 企业级应用集成AI大模型的技术架构设计 企业级应用集成AI大模型的技术架构设计,需要综合考虑业务需求、数据安全、模型性能等多方面因素。以下是 https://dblab.xmu.edu.cn/blog/5816/ 4.12 本地部署大模型的成本 DeepSeek R1 671B(满血版)部署成本 1.硬件采购成本 • 服务器集群:含8张NVIDIA A100/H100显卡的服务器,市场价格约80-120万元 • 配套设备:液冷系统、冗余电源等附加成本约15-25万元 2.运维成本 • 电费:满载功耗约6000W,年电费约5-8万元(按工业电价1
    10 积分 | 147 页 | 16.82 MB | 6 月前
    3
  • pdf文档 电子:DeepSeek-R1加速AI进程,看好AI应用端潜力释放

    请务必阅读正文之后的免责条款部分 行业研究报告 提速,服务器产业链受益。DeepSeek 具备开源、低成本和高性能的特 性,各大云厂接入 DeepSeek,有望加速推动大模型走入千行百业,带 动推理需求实现增长,服务器产业链有望受益。建议关注电源、PCB、 铜缆、光模块等环节,例如麦格米特、泰嘉股份、沪电股份、深南电 路、沃尔核
    10 积分 | 4 页 | 269.47 KB | 6 月前
    3
共 37 条
  • 1
  • 2
  • 3
  • 4
前往
页
相关搜索词
电子AI系列专题DeepSeek重塑开源模型生态应用爆发持续推升算力需求2025智能智能化时代数据据库数据库自主可靠运维白皮皮书白皮书腾讯年超节点发展报告华为中国信通新华新华网国产数字数字化升级标杆实践复盘伟达鲲鹏原生开发技术开发技术6.0修订修订版混合现代现代化体系核心能力最佳行业电子行业边缘语言终端部署推动一轮新一轮20230531国信证券25及其企业企业应用R1加速进程看好潜力释放
维度跃迁
关于我们 文库协议 联系我们 意见反馈 免责声明
本站文档数据由用户上传,所有资料均作为学习交流,版权归原作者所有,并不作为商业用途。
相关费用为资料整理服务费用,由文档内容之真实性引发的全部责任,由用户自行承担,如有侵权情及时联系站长删除。
维度跃迁 ©2025 | 站点地图 蒙ICP备2025025196号
Powered By MOREDOC PRO v3.3.0-beta.46
  • 我们的公众号同样精彩
    我们的公众号同样精彩