蚂蚁集团发布 2900 亿参数 MoE 模型:开源 “百灵” 挑战 GPT-4.5,国产算力成本降 20%

蚂蚁集团正式发布百灵系列混合专家(MoE)大模型,包括Ling-Lite(168 亿参数)和Ling-Plus(2900 亿参数),其核心技术突破在于异构算力适配训练成本优化。据技术论文显示,Ling-Plus 在国产 GPU 集群上完成 9 万亿 token 预训练,成本较传统高性能芯片方案降低 20%,推理效率提升 3 倍,性能对标 GPT-4.5。

图片[1]-蚂蚁集团发布 2900 亿参数 MoE 模型:开源 “百灵” 挑战 GPT-4.5,国产算力成本降 20%-牛仔AI

技术亮点解析

  1. MoE 架构创新
    • 采用动态参数分配与混合精度调度技术,在 2900 亿参数规模下,单次推理仅激活 288 亿参数,显著降低计算负载。
    • 首创 “跨异构计算单元无缝切换” 框架,支持国产 GPU 与英伟达芯片混合部署,训练效率较纯英伟达方案提升 15%。
  2. 成本革命
    • 使用国产 GPU 训练 1 万亿 token 成本从 635 万元降至 508 万元,降幅达 20%,验证了 “低性能硬件高效训练” 的可行性。
    • 对比 DeepSeek-R1(671 亿参数)的 558 万美元训练成本,Ling-Plus 以更低算力消耗实现相近性能,凸显性价比优势。
  3. 多模态能力突破
    • 在医疗影像分析场景,Ling-Plus 对 X 光片的病灶识别准确率达 98%,超越行业平均水平 15 个百分点。
    • 金融领域,其合同条款解析效率较传统模型提升 3 倍,可自动提取风险条款并生成合规建议。

性能对标:与 GPT-4.5 的 “非对称竞争”

指标Ling-Plus(290B)GPT-4.5(1.8T)优势领域
中文理解(C-Eval)89.7 分85.3 分金融术语解析、法律文本
数学推理(GSM8K)78.2%82.1%多步骤逻辑链
代码生成(HumanEval)75.4%81.2%金融场景定制化开发
工具使用(ToolBench)92.3%88.7%跨系统自动化任务
训练成本(1 万亿 token)508 万元约 1.2 亿元(估算)国产算力适配

数据来源:蚂蚁集团技术论文、OpenAI 公开测试结果

开源生态:从技术普惠到产业重构

1. 全栈开源策略

  • 开源内容涵盖模型架构(MoE 专家层设计)、训练框架(分布式参数同步算法)、部署工具(端云协同推理引擎),开发者可一键复现 2900 亿参数模型训练流程。
  • 对比 DeepSeek 的 “部分开源” 模式,蚂蚁的全流程透明化策略更易吸引中小企业参与生态共建。

2. 行业影响

  • 金融领域:已有 30 余家银行接入 Ling-Plus,用于智能客服、风控模型优化等场景,预计年节省人力成本超 10 亿元。
  • 医疗行业:与 3 家三甲医院合作开发的 “AI 辅助诊断系统”,通过 Ling-Plus 的多模态能力,将 CT 影像分析耗时从 30 分钟压缩至 5 分钟。
  • 科研领域:开源社区已吸引超 2000 名开发者提交代码优化,其中 15% 的改进方案被纳入官方版本。

挑战与争议

  1. 隐私合规
    • 蚂蚁强调模型采用联邦学习技术,用户数据经加密后在本地设备完成训练,确保 “数据不出域”。但第三方测试显示,其云端推理仍需传输部分明文数据,存在隐私争议。
  2. 性能天花板
    • 在纯逻辑推理任务(如数学竞赛题)中,Ling-Plus 与 GPT-4.5 仍有 5% 差距,主要受制于国产芯片的浮点运算能力。
  3. 生态竞争
    • 字节跳动同期推出的 “豆包 MoE” 通过 UltraMem 架构实现训练效率 1.7 倍提升,与蚂蚁形成直接竞争。

结语:AI 平权运动的中国样本

蚂蚁集团的技术突破不仅是算力效率的革新,更标志着中国 AI 从 “跟随式创新” 向 “引领式突破” 的转变。其开源策略与国产算力适配路径,为全球 AI 产业提供了 “低成本、高效能” 的新范式。正如李开复所言:“当开源模型性能逼近闭源巨头,AI 平权时代已然到来。”

© 版权声明
THE END
您的赞美是我们持续创作/分享的动力,欢迎点赞/分享/关注。
点赞8 分享
评论 抢沙发
头像
欢迎您留下宝贵的见解!
提交
头像

昵称

取消
昵称表情代码图片

    暂无评论内容