蚂蚁集团回应 AI 训练成本优化:国产芯片 + MoE 架构实现降本 20%

3 月 24 日,蚂蚁集团就近期媒体关注的大模型训练成本优化进展作出正式回应,确认其通过国产芯片适配与混合专家(MoE)架构创新,成功将模型训练成本降低约 20%。这一突破不仅验证了国产算力的技术潜力,更通过开源计划推动行业技术普惠化进程。蚂蚁集团logo标志_素材中国sccnn.com

技术突破:国产芯片与 MoE 架构的协同创新

蚂蚁集团研发团队通过《每一个 FLOP 都至关重要:无需高级 GPU 即可扩展 3000 亿参数混合专家 LING 大模型》论文,首次披露其技术路径。研究显示,基于阿里巴巴平头哥 RISC-V 架构芯片与华为昇腾系列国产 GPU 的混合部署方案,结合动态 MoE 训练策略,在保障模型性能的前提下,实现了计算成本的显著优化。
实验数据显示,训练 3000 亿参数的 MoE 模型时,采用低规格国产算力集群的成本较英伟达 H800 高性能方案降低 20%,且模型在语言理解、逻辑推理等核心指标上保持行业领先水平。这一成果打破了高性能 AI 芯片对大模型训练的刚性依赖,为资源受限环境下的技术创新提供了新范式。

开源共享:推动行业生态共建

蚂蚁集团同步宣布将逐步开源 Ling 系列模型框架及训练策略,包括 168 亿参数的轻量版(Ling-Lite)与 2900 亿参数的增强版(Ling-Plus)。通过开放模型架构、优化算法及硬件适配方案,旨在降低中小企业与研究机构的技术准入门槛。业内人士指出,这一举措将加速国产 AI 技术生态的完善,形成 “技术突破 – 应用落地 – 生态反哺” 的良性循环。
© 版权声明
THE END
您的赞美是我们持续创作/分享的动力,欢迎点赞/分享/关注。
点赞9 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容