智算产业发展研究报告(2025)-天翼智库万卡,占全国万卡集群的 58%。 (二)海外加快十万/百万卡集群演进,跨地域的多节点协同部 署成为新方向。 一方面,规模定律(Scaling Law)依然有效,海外科技巨头积 极建设十万/百万卡级集群。以美国为代表的算力资源较充沛的国家 依然延续 scaling law 路径,利用十万卡集群推动其在基座大模型、 智能算法研发,以及生态服务等方面的技术创新,如谷歌已利用十万 卡自研 TPU10 积分 | 48 页 | 3.12 MB | 1 月前3
2025年智能之光:⼈机协作的经济管理研究新时代报告-北京大学中国经济研究中心大语言模型的总体发展趋势 随着 GPT 系列模型的成功,人工智能界意识到扩大模型参数所带来的质变,即所谓的“涌现能力”。随 后人工智能界提出了模型性能随模型规模、训练数据等增加而改善的“拓展定律”(Scaling Law)。在拓展定 律的指导下,各大人工智能厂商不断提高模型参数量、训练数据量以及推理计算量;随之而来的巨大算力需求 和资本投入,引发了人工智能的投资热潮,并塑造了当今人工智能产业的竞争格局。 pp. 5–32. Kahneman, D. (2011). Thinking, fast and slow. macmillan. Kaplan, J. et al. (2020). Scaling Laws for Neural Language Models. Kok, T. de (2025). “ChatGPT for Textual Analysis? How to Use Generative0 积分 | 62 页 | 2.45 MB | 1 月前3
共 2 条
- 1
