3 月 24 日,蚂蚁集团就近期媒体关注的大模型训练成本优化进展作出正式回应,确认其通过国产芯片适配与混合专家(MoE)架构创新,成功将模型训练成本降低约 20%。这一突破不仅验证了国产算力的技术潜力,更通过开源计划推动行业技术普惠化进程。

蚂蚁集团研发团队通过《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》论文,首次披露其技术路径。研究显示,基于阿里巴巴平头哥 RISC-V 架构芯片与华为昇腾系列国产 GPU 的混合部署方案,结合动态 MoE 训练策略,在保障模型性能的前提下,实现了计算成本的显著优化。
实验数据显示,训练 3000 亿参数的 MoE 模型时,采用低规格国产算力集群的成本较英伟达 H800 高性能方案降低 20%,且模型在语言理解、逻辑推理等核心指标上保持行业领先水平。这一成果打破了高性能 AI 芯片对大模型训练的刚性依赖,为资源受限环境下的技术创新提供了新范式。
蚂蚁集团同步宣布将逐步开源 Ling 系列模型框架及训练策略,包括 168 亿参数的轻量版(Ling-Lite)与 2900 亿参数的增强版(Ling-Plus)。通过开放模型架构、优化算法及硬件适配方案,旨在降低中小企业与研究机构的技术准入门槛。业内人士指出,这一举措将加速国产 AI 技术生态的完善,形成 “技术突破 – 应用落地 – 生态反哺” 的良性循环。
暂无评论内容