从智慧教育到智慧课堂:理论、规范与实践学生的发展性评价 基于大数据的科学研究 26 云计算 • 云计算中的“云”主要用来强调计算泛 在性和分布性,实质上是分布式计算、 并行计算和网格计算等技术的发展。 • 将分布在各地的服务器群进行网联, 能够实现大规模计算能力、海量数据 处理和信息服务的需求。 27 云计算 创 新 • 学生通过电子书包 等终端随时随地享 受云端的各种学习 服务 云学习环境 • 保证学习数据的永 智慧课堂 1:1 学习 可视化 共享服务 Client Application Client Application Client Application PC 服务器 keyboard, mouse, display, network connect Client OS / App Image Client OS / App Image 应性。 虚拟桌面架构 通过分享应用环境,每个刀片 支持 50-100 个用户 需要用户适应新的桌面体验 终端服务 基于 1:1 理念,每位学习者拥有一台 PC 或者服务器 桌面超薄式设备 流操作形态和应用 Linux 或者 Windows 虚拟桌面架构 e: 用户可以拥有操作系统 低成本的弱功能客户机 Linux 或者 Windows 终端服务:10 积分 | 74 页 | 10.39 MB | 6 月前3
华为昇腾DeepSeek解决方案Atlas 及昇腾伙伴系列硬件 模组 / 小站 / 加速卡 / 服务器 / 集群 昇腾处理器 昇腾 310 系列 / 昇腾 910 系列 ... 应用使能 应用使能套件 / SDK AI 计算框架 PyTorch / TensorFlow / Caffe...... NV 系列硬件 模组 / 加速卡 / 服务器 / --> 集 群 NV 处理器 Ampere 系列 / Hopper 能 无损 RoCE 网络,每台推理服务器 8 个 200GE ROCE 光口 样本面 用于访问存储区的高速大带宽互联的存储系统,推荐部署为 RoCE 无损网络,每台推理服务器 2 个 25GE 光口 业务面 用于系统业务调度和管理。通常部署为 TCP/IP 有损网络,每台推力卡服务器 2 个 25GE 光口 带外管理 AI 服务器 BMC 管理,可选 业务面 CE6865E CE6865E 8*25GE 推理调度管理流量 400G RoCE 交换机 Leaf CE9860*2 台 Spine CE9860*2 台 参数面 推理读流量 AI 推理服务器( Atlas 800I A2 ) 4 台 *8 口 *200GE 样本面(可选) CE9860 8*25GE 带外管理面( BMC 管理可选) CE5882 4*GE DeepseekV3/R10 积分 | 32 页 | 2.52 MB | 5 月前3
英特尔-工业人工智能白皮书2025年版通道。 所有英特尔® 至强® 6 处理器都能随着服务器利用率的增加而提供可扩展的每瓦性能,在整个负载线路上提供近乎线性的功 耗-性能消耗,这凸显了所有英特尔® 至强® 6 处理器的高效性。对于性能要求苛刻的工作负载,这意味着平台在高负载下有 效地利用能耗,以帮助快速完成工作。 利用增强的安全功能跟上业务增长的步伐 在本地、边缘和云服务器上追求新的业务模式和数据共享,即使在处理敏感数据或受监管数据时也是如此。基于可信执行环 超级通道互联(Intel® Ultra Path Interconnect, 英特尔® UPI)2.0 的跨插槽内带宽速度高达 24 GT/s, 与上一代产品相比提升高达 20%。 • 双路服务器拥有多达 178 条 PCIe Gen 5 通道,单路服务 器则多达 136 条,可以支持重要的 I/O 附加组件,包括加 速器、网络适配器、存储控制器和存储。 • 多达 64 条 Compute 至强® 6900 系列 处理器 旗舰级 采用全新的英特尔® 服务器平 台设计,非常适合云计算、 AI、科学计算、软件即服务 (SaaS) 和基础设施即服务 (laaS) 等工作负载。 高端级 对现有的英特尔® 服务器平 台进行了大幅升级。面向企 业 IT、数字服务提供商和电 信的主流边缘协同服务器。 非常适合 AI、科学计算、网 络和媒体、数字服务、基础 设施和存储、Web、应用以0 积分 | 82 页 | 5.13 MB | 5 月前3
DeepSeek大模型赋能高校教学和科研2025xmu.edu.cn/blog/5816/ 4.4 本地部署大模型方 案 DeepSeek R1 671B (满血版) 部署成本 1. 硬件采购成本 • 服务器集群 :含 8 张 NVIDIA A100/H100 显卡的服务器 , 市场价格约 80-120 万元 • 配套设备 :液冷系统、 冗余电源等附加成本约 15-25 万元 2. 运维成本 • 电费 :满载功耗约 6000W 开源项目迎来重大更新 ,成功打破大模型推 理算 力门槛。 此前 ,拥有 671B 参数的 MoE 架构大模型 DeepSeek-R1 在推理时困难重重。 推理服务 器常因高 负荷宕机 , 专属版云服务器按 GPU 小时计费的高昂成本让中小团队无力承担 , 而市面上的 “本地部署” 方案多为参数量大幅缩水的蒸馏版 ,在本地小规模硬件上运行满血版 DeepSeek-R1 被认 为几乎不可能 n 甚至有开发者借助这一优化技术 ,在 3090 显卡和 200GB 内存的配置下 ,使 Q2_K_XL 模型的推理速度达到 9.1 tokens/s , 实现了千亿级模型的 “家庭化” 运行 传统方案: 8 卡 A100 服务器成本超百万元 ,按需计费每小时数千元 清华方案: 单卡 RTX 4090 方案 ,整机成本约 2 万元 ,功耗 80W 4.4 本地部署大模型方 案 5.1 AIGC 概述 5.2 文本类 AIGC10 积分 | 123 页 | 15.88 MB | 6 月前3
AI跃迁派:2025年DeepSeek零基础完全指南⚫ 数据提取:从实验报告 PDF 中自动整理温度数据表格 避坑指南:超过 50 页的长文档建议拆分处理,避免解析超时 3.常见问题速查 Q1:为什么联网搜索时断时续? 原因:服务器负载过高或网络波动 解决方案:避开晚高峰使用,或切换至深度思考模式本地处理 Q2:如何导出对话记录? 操作路径:网页版/APP 端点击对话历史→右键选择“导出为 Markdown”10 积分 | 21 页 | 1.01 MB | 6 月前3
共 5 条
- 1
