蚂蚁集团正式发布百灵系列混合专家(MoE)大模型,包括Ling-Lite(168 亿参数)和Ling-Plus(2900 亿参数),其核心技术突破在于异构算力适配与训练成本优化。据技术论文显示,Ling-Plus 在国产 GPU 集群上完成 9 万亿 token 预训练,成本较传统高性能芯片方案降低 20%,推理效率提升 3 倍,性能对标 GPT-4.5。
![图片[1]-蚂蚁集团发布 2900 亿参数 MoE 模型:开源 “百灵” 挑战 GPT-4.5,国产算力成本降 20%-牛仔AI](https://pic.suyu.uk/images/2025/05/02/4e719264d0de8ae0c99f904482c9bf78.png)
技术亮点解析
- MoE 架构创新
- 采用动态参数分配与混合精度调度技术,在 2900 亿参数规模下,单次推理仅激活 288 亿参数,显著降低计算负载。
- 首创 “跨异构计算单元无缝切换” 框架,支持国产 GPU 与英伟达芯片混合部署,训练效率较纯英伟达方案提升 15%。
- 成本革命
- 使用国产 GPU 训练 1 万亿 token 成本从 635 万元降至 508 万元,降幅达 20%,验证了 “低性能硬件高效训练” 的可行性。
- 对比 DeepSeek-R1(671 亿参数)的 558 万美元训练成本,Ling-Plus 以更低算力消耗实现相近性能,凸显性价比优势。
- 多模态能力突破
- 在医疗影像分析场景,Ling-Plus 对 X 光片的病灶识别准确率达 98%,超越行业平均水平 15 个百分点。
- 金融领域,其合同条款解析效率较传统模型提升 3 倍,可自动提取风险条款并生成合规建议。
性能对标:与 GPT-4.5 的 “非对称竞争”
指标 | Ling-Plus(290B) | GPT-4.5(1.8T) | 优势领域 |
---|---|---|---|
中文理解(C-Eval) | 89.7 分 | 85.3 分 | 金融术语解析、法律文本 |
数学推理(GSM8K) | 78.2% | 82.1% | 多步骤逻辑链 |
代码生成(HumanEval) | 75.4% | 81.2% | 金融场景定制化开发 |
工具使用(ToolBench) | 92.3% | 88.7% | 跨系统自动化任务 |
训练成本(1 万亿 token) | 508 万元 | 约 1.2 亿元(估算) | 国产算力适配 |
数据来源:蚂蚁集团技术论文、OpenAI 公开测试结果
开源生态:从技术普惠到产业重构
1. 全栈开源策略
- 开源内容涵盖模型架构(MoE 专家层设计)、训练框架(分布式参数同步算法)、部署工具(端云协同推理引擎),开发者可一键复现 2900 亿参数模型训练流程。
- 对比 DeepSeek 的 “部分开源” 模式,蚂蚁的全流程透明化策略更易吸引中小企业参与生态共建。
2. 行业影响
- 金融领域:已有 30 余家银行接入 Ling-Plus,用于智能客服、风控模型优化等场景,预计年节省人力成本超 10 亿元。
- 医疗行业:与 3 家三甲医院合作开发的 “AI 辅助诊断系统”,通过 Ling-Plus 的多模态能力,将 CT 影像分析耗时从 30 分钟压缩至 5 分钟。
- 科研领域:开源社区已吸引超 2000 名开发者提交代码优化,其中 15% 的改进方案被纳入官方版本。
挑战与争议
- 隐私合规
- 蚂蚁强调模型采用联邦学习技术,用户数据经加密后在本地设备完成训练,确保 “数据不出域”。但第三方测试显示,其云端推理仍需传输部分明文数据,存在隐私争议。
- 性能天花板
- 在纯逻辑推理任务(如数学竞赛题)中,Ling-Plus 与 GPT-4.5 仍有 5% 差距,主要受制于国产芯片的浮点运算能力。
- 生态竞争
- 字节跳动同期推出的 “豆包 MoE” 通过 UltraMem 架构实现训练效率 1.7 倍提升,与蚂蚁形成直接竞争。
结语:AI 平权运动的中国样本
蚂蚁集团的技术突破不仅是算力效率的革新,更标志着中国 AI 从 “跟随式创新” 向 “引领式突破” 的转变。其开源策略与国产算力适配路径,为全球 AI 产业提供了 “低成本、高效能” 的新范式。正如李开复所言:“当开源模型性能逼近闭源巨头,AI 平权时代已然到来。”
© 版权声明
本站内容文章版权归作者所有,未经允许请勿转载,如转载必须注明出处。
THE END
暂无评论内容