北斗时空(上海)智算中心项目方案(44页 PPT)2048 台服务器合计消纳 IT 功率约 21504KW ; 2) 建设 5 个 128 合计 640 台算力服务器组成的推理集群,主卡选用 5090, 合计消纳 320 个 12KW 机柜,单台 算力服务器最大功耗 6KW 计算, 640 台服务器合计消纳 IT 功率约 3840KW; 3) 建设 5 个 128 合计 640 台算力服务器组成的推理集群,主卡选用 H20, 合计消纳 320 2048 ( 2 * 1024 ) 10.5 12 1 : 1 2048 21504 推理池 1 RTX5090 5120 640 ( 5*128 ) 6 12 1 : 2 320 3840 推理池 2 H20 5120 640 ( 5*128 ) 4.5 9 1 : 2 320 2880 合计 26624 3328 2688 28224 算力池规划表 算力池规划 5A 级科技型办公中心10 积分 | 44 页 | 26.70 MB | 1 月前3
深桑达-发布政务大模型,落地AI+政务[Table_Report] 相关研究 1.【华西计算机】深桑达深度:左手国资云,右手 数据要素 2023.06.08 -21% 16% 53% 91% 128% 165% 2022/07 2022/10 2023/01 2023/04 2023/07 相对股价% 深桑达A 沪深300 证券研究报告|公司动态报告 仅供机构投资者使用 582/672/787 亿 元,归母净利润为 2.88/4.95/8.35 亿元,每股收益(EPS)为 0.25/0.43/0.73 元,对应 2023 年 7 月 7 日收盘价 32.37 元, PE 分别为 128/74/44 倍,强烈推荐,维持公司“买入”评级。 风险提示 1)市场份额被竞争对手挤压;2)政策推进不及预期;3)大 模型技术发展不及预期;4)经济下滑导致的系统性风险。 盈利预测与估值 582/672/787 亿元,归母净利润为 2.88/4.95/8.35 亿元,每股收益(EPS)为 0.25/0.43/0.73 元,对应 2023 年 7 月 7 日收盘价 32.37 元,PE 分别为 128/74/44 倍,强烈推荐,维持公司“买入”评级。 4.风险提示 1、市场份额被竞争对手挤压; 2、政策推进不及预期; 3、大模型技术发展不及预期; 4、经济下滑导致的系统性风险。0 积分 | 14 页 | 1.62 MB | 6 月前3
大华-智慧园区AI布控解决方案(18页)测,人员聚集,快速移动,非法停车,音频异常侦测,人脸检测,外部报警, 客流量统计,热度图,微卡口; XXXX 解决方案 第 11页 ? 支持报警 2 进 2 出,音频 2 进 1 出, 485,RS232,BNC,HDCVI,128G SD卡, 内置 MIC; ? 支持电源 DC12V电源返送,最大电流 165mA,功耗 2W; ? 支持 G.711A、G.711Mu、G.726、AAC多种音频编码格式; ? 支持 A GUI界面操作; ? 可接驳支持 ONVIF协议的第三方摄像机和主流品牌摄像机; ? 支持 IPv4、IPv6、HTTP、NTP、SADP、DNS、ONVIF(支持 2.4 版本)协议; ? 支持最大 128 路网络视频接入,网络性能接入 400Mbps,储存 320bps,转 发 320Mbps,80Mbps 回放; ? 支持 12M/4K/6M/5M/4M/3M/1080P/1.3M/720P IPC20 积分 | 18 页 | 720.45 KB | 1 月前3
金融银行业务接入DeepSeek AI大模型智能体建设方案(304页 WORD)大模型作为新一代千亿参数级多模态大语言模型, 在金融银行业务场景中展现出显著的技术优势与适配性。其核心能 力建立在三层技术架构之上:基于 Transformer-XL 的混合专家模 型 (MoE)结构实现动态计算资源分配,128K 超长上下文窗口结合动 态稀疏注意力机制,以及通过强化学习与人类反馈(RLHF)优化 的金融领域微调策略。在银行业典型任务测试中,模型在金融语义 理解、复杂逻辑推理和多轮对话维持方面表现突出,其中在合同关 验证,在信用卡欺诈检测中实现误报率低于 0.3% 的同时保持 98.6% 的召回率。 模型的知识更新机制采用双通道设计:静态知识通过季度更新 的金融知识库( 涵盖巴塞尔协议 III 等 128 个监管框架)进行批量注 入,动态知识则通过实时流数据处理平台接入市场行情与监管通 告。测试数据显示,该机制使模型在利率政策变更后的知识更新时 效性缩短至 4 小时内,显著优于同业常见的 关键参数配置需平衡性能与资源消耗,典型设置如下: - 学习率:采用余弦退火策略,初始值 3e-5 ,最小衰减至 1e-6 - 批量大小:根据 GPU 显存动态调整,推荐范围 32-128 - 训练轮次:早停机制(patience=3) 监控验证集 F1 值 - 正则化:Dropout 率0.1 ,权重衰减系数 0.01 效果评估采用分层次测试体系:在单元测试层面,通过混淆矩10 积分 | 313 页 | 3.03 MB | 1 月前3
DeepSeek华为云AI解决方案24G 1 3,945 8.17 24 32B 方案 1 GPU-pi5 16U64GB 显卡 1 * 24G 100 1 3,945 8.17 12 70B 方案 1 GPU-pi5 32U128GB 显卡 2 * 24G 200 1 7,890 16.34 5 3. 核心优势 方案核心优势 低成本: 提供高性价比的云服务器,用户可以根据实际需求自定义不同规格的云服务器。 一键部署:10 积分 | 16 页 | 850.86 KB | 7 月前3
保险行业理赔业务基于DeepSeek AI大模型应用设计方案(281页 WORD)升训练效率。例如,在理赔案件文本分析任务中,模型可在 128 块 A100 GPU 集群上实现每小时 2.5PB 的数据吞吐量。 模型的核心组件包含以下模块: 多模态编码器:通过共享嵌入空间将理赔单据图像、医疗报告 文本、客户语音记录等异构数据统一表征,其中视觉模态采用 ViT 变体,文本模态使用动态词嵌入技术 上下文理解模块:基于 64 层 Transformer 解码器堆叠,每层 配备 128 头自注意力机制,支持最长 利用率相比传统静态模型提升 40%。 模型性能通过以下机制保障: 技术指标 训练阶段 推理阶段 计算精度 BF16 混合精度 INT8 量化 并行效率 92%(千卡规 模) 动态批处理(最大 128) 内存优化 Zero 冗余优化器 FlashAttention 加速 该架构已在实际业务中验证其可靠性,在某省级医保理赔平台 实现 94.3%的自动化通过率,同时将争议案件处理周期从 72 小时 数据(如匿名化统计指标)、业务数据(如保单号与部分脱敏的客 户信息)、核心敏感数据(如身份证号、银行账号、完整病历)。 不同层级数据采用差异化的加密策略: 数据层级 存储加密方式 传输加密标准 访问权限范围 公开数据 AES-128 TLS 1.2 所有业务部门 业务数据 AES-256 + 字段级脱敏 TLS 1.3 + IPsec 理赔/风控部门 核心敏感数据 同态加密 + 动态令牌 量子加密通道 限定岗位+双因素认证20 积分 | 295 页 | 1.87 MB | 1 月前3
基于大数据的全域旅游综合管理平台的设计与应用. 成都:电子科技大学,2020. [12] 丁煌,马小成 . 数据要素驱动数字经济发展的治理逻辑与创新进 路 ——以贵州省大数据综合试验区建设为例[J]. 理论与改革, 2021(6):128-139. [13] 邹建琴,明庆忠,史鹏飞,等 . 智慧旅游研究:历程、主题与趋势 [J]. 资源开发与市场,2022,38(7):850-858. [14] LI J,CAO B. Study10 积分 | 5 页 | 1.30 MB | 1 月前3
面向审计行业DeepSeek 大模型操作指南(27页 WORD)https://hf-mirror.com/ ) 获 取 。DeepSeek-V3 和 DeepSeek-R1 的模型参数量较大,达到了 671B ,直接部署这两个模型需要 1.3~2 TB(FP16)的显存支持(如 128 卡 H100 的集群)。为方便一般用户本地 使用, DeepSeek 团队使用 Qwen2.5 和 Llama3.3 ,以 DeepSeek-R1 为教师模 型,蒸馏了 6 款小模型,包含 10 积分 | 27 页 | 829.29 KB | 1 月前3
DeepSeek智慧政务数字政府AI大模型微调设计方案........125 7.2 风险管理与应对策略........................................................................128 7.2.1 风险识别与评估.......................................................................130 7.2.2 风险应对措施与预案 型的泛化能力。在调优过程中,可以通过网格搜索或随机搜索的方 法,对这些超参数进行联合优化。 以下是一个典型的超参数搜索范围示例: 学习率:1e-5 到 1e-3 批量大小:16, 32, 64, 128 训练轮数:10 到 100 权重衰减系数:0.0, 1e-4, 1e-3 Dropout 率:0.1, 0.2, 0.3 为了进一步提高调优效率,可以使用贝叶斯优化(Bayesian 许 的情况下,从较小的批量大小(如 32 或 64)开始,逐步增加,观 察模型的收敛情况。例如,可以尝试以下批量大小序列进行调优: 批量大小:32 批量大小:64 批量大小:128 通过实验确定一个在训练速度和模型性能之间取得平衡的最佳 批量大小。 其次,训练步数的确定需要根据批量大小和数据集规模进行动 态调整。在批量大小固定的情况下,训练步数越多,模型的学习机 会0 积分 | 167 页 | 464.82 KB | 6 月前3
运营商智算中心建设思路及方案80GB HBM3 900 CUDA B200 2024年3月 2.25 192GB HBM3e 1 800 CUDA Intel Gaudi3 2024年4月 1.835 128GB HBM2e 1 200 OneAPI AMD MI300 2023年12月 1.307 192GB HBM3 896 ROCm 华为 910B 2023年Q2 0.37610 积分 | 6 页 | 3.64 MB | 1 月前3
共 32 条
- 1
- 2
- 3
- 4
