阿里巴巴于 4 月 29 日正式发布新一代通义千问 Qwen3 系列大模型,凭借混合推理架构与轻量化技术的双重突破,在国际 AI 竞赛中展现出强劲竞争力。旗舰模型 Qwen3-235B-A22B 以 2350 亿总参数和 220 亿激活参数的创新设计,在代码生成、数学推理等核心领域与 DeepSeek-R1、OpenAI-o1 等顶尖模型展开正面较量,同时推出的 Qwen3-30B-A3B 小型 MoE 模型激活参数仅为同类产品 10%,性能却实现反超,标志着中国在大模型轻量化领域取得里程碑式进展。
作为国内首个 “混合推理模型”,Qwen3 突破性地将 “快思考” 与 “慢思考” 两种模式集成于同一架构。在非思考模式下,模型可实现毫秒级快速响应,适用于简单问答场景;而面对复杂问题时,思考模式通过动态扩展推理步骤,显著提升逻辑推理能力。这种创新设计使 Qwen3 在奥数水平的 AIME25 测评中以 81.5 分刷新开源纪录,在代码能力测试 LiveCodeBench 中得分突破 70 分,超越 Grok3,甚至在人类偏好对齐评估 ArenaHard 中以 95.6 分力压 OpenAI-o1 和 DeepSeek-R1。
![图片[1]-阿里发布 Qwen3 系列模型,挑战国内外顶尖大模型-牛仔AI](https://pic.suyu.uk/images/2025/04/30/5a4bfa7bef887aa3856d41edbfa61f2f.png)
在轻量化技术方面,Qwen3-30B-A3B 通过混合专家(MoE)架构实现 “激活参数革命”。该模型总参数 300 亿,但实际运行时仅需激活 30 亿参数,相比同级别模型减少 90% 计算量,却在数学推理、代码生成等任务中达到甚至超越全参数模型性能。这一技术突破使 Qwen3 系列在边缘计算、智能终端等场景具备极高应用价值,例如 Qwen3-4B 微型模型已能匹敌上一代 72B 参数模型的表现。
Qwen3 的技术突破源于 36 万亿 token 的超大规模训练数据与四阶段混合训练流程。其预训练数据量较前代提升 200%,覆盖 119 种语言和方言,并通过合成数据增强数学与代码能力。后训练阶段引入长思维链强化学习与多模态对齐技术,使模型在复杂任务处理中展现出类人推理能力。在部署成本方面,Qwen3-235B-A22B 仅需 4 张 H20 GPU 即可运行,显存占用量仅为竞品三分之一,大幅降低企业级应用门槛。
此次发布的 Qwen3 系列包含 8 款模型,构建起从 0.6B 到 235B 的全尺寸矩阵,覆盖工业级推理、多语言交互、智能体开发等场景。其中,旗舰模型 Qwen3-235B-A22B 在 Agent 能力评测 BFCL 中创下 70.8 分新高,超越 Gemini2.5-Pro 等模型,为 AI 智能体开发提供新标杆。所有模型均以 Apache2.0 协议开源,全球开发者可通过魔搭社区、HuggingFace 等平台获取,进一步巩固了阿里在开源生态中的领导地位。
阿里云智能总裁张勇表示:”Qwen3 的发布标志着中国 AI 技术从参数竞赛转向架构创新的新阶段。我们通过混合推理与轻量化技术,在保持顶尖性能的同时实现成本革命性下降,这将加速大模型在制造业、金融等领域的规模化落地。” 目前,Qwen3 已在夸克搜索、通义 App 等场景全面部署,并与华为昇腾、海光 DCU 完成深度适配,为国产算力生态注入新动能。
暂无评论内容