时间:2025-07-29 22:33 作者:仰起的铁钉
为什么昇腾384超节点能成为“镇馆之宝”?
文 观察者网 吕栋
机器人不仅能调酒、分拣还能格斗,AI眼镜不仅能翻译、导航还能支付,医疗大模型不仅能识别病理切片还能自动生成诊断报告,金融数字员工正从辅助工具变身“专业研究员”......这些画面并不是科幻电影,而是世界人工智能大会(WAIC 2025)被火爆围观的场景。
在这里,每个人都能感受到,中国AI应用创新正呈现百花齐放之势。但不可否认的是,无论AI技术在哪个场景落地,都离不开算力底座的支撑。尤其是在当下,随着全球AI竞争进入白热化,美国不断收紧技术出口管制,中国产业界更加呼唤底层软硬件的技术突破。
但实际上,大模型技术演进过程中,国产算力的挑战和机遇并存。一方面训练万亿参数大模型,仅靠单卡算力无法实现,集群算力成为大势所趋;另一方面,随着以DeepSeek为代表的MoE(混合专家模型)成为主流模型架构,其复杂混合并行导致通信需求骤增,单纯靠堆芯片,已不能带来有效算力的线性增加,但给提升通信带宽进而改善性能带来机遇。
并且,昇腾384超节点还可以通过灵活分配资源,更好地支持混合专家MoE大模型的训推,实现384卡“一卡一专家”,是业界唯一支持DeepSeekV3/R1在一个超节点域内即可完成所有的专家并行(EP)的方案,也是MoE模型的最佳训练/推理方案。
在半导体制程受限的情况下,昇腾384超节点通过资源高效调度,一定程度弥补了芯片工艺的不足。性能测试数据显示,在昇腾超节点集群上,LLaMA3等千亿稠密模型性能相比传统集群提升2.5倍以上;在通信需求更高的Qwen、DeepSeek等多模态、MoE模型上,性能提升可达3倍以上,较业界其他集群高出1.2倍,在行业中处于领先地位。更重要的是,通过最佳负载均衡组网等方案,还能将昇腾超节点组成数万卡的Atlas 900 SuperCluster超节点集群,支持更大规模的模型训练,成为中国AI创新的可靠底座。
枝繁叶茂,昇腾已走进千行万业
“中国制造业像今天这样如此强大的原因,不仅是它能更便宜地生产东西,也因为它能更便宜、更快、更好、更智能地生产东西,而且正在越来越多地将人工智能融入到产品中来。”美国记者 托马斯·弗里德曼 在《我在中国看到了世界未来的样子》一文中写道。
1、关于Manus,谷歌前主管、顶级VC和SaaS产品负责人怎么看?,谷歌管理层团队名单
3、外媒称英伟达紧急加单30万片H20芯片:中国市场需求强劲,英伟达芯片出货量