《科创板日报》5 月 9 日讯,英伟达今日宣布开源其代码推理模型(Open Code Reasoning Model),包含 32B、14B 和 7B 三个参数版本,均以阿里巴巴通义千问 Qwen2.5 系列(Qwen2.5-32B、Qwen2.5-14B、Qwen2.5-7B)为基础模型构建。这一举措标志着全球 AI 开源生态的重要突破,开发者可通过 Hugging Face 平台获取模型权重及配置文件,采用 Apache 2.0 协议进行二次开发。
![图片[1]-英伟达开源多款代码推理大模型,基于阿里通义千问底座构建-牛仔AI](https://pic.528468.xyz/images/2025/05/09/579491d289c5c763032cbb7b922df824.png)
技术特性与应用价值
该系列模型基于 Nemotron 架构优化,支持多语言、多任务学习。32B 旗舰模型面向高性能推理场景,在 LiveCodeBench 基准测试中全面超越 OpenAI 的 o3-Mini 和 o1 (low) 模型,尤其在代码生成、逻辑推理等任务中表现突出。14B 版本平衡计算需求与推理能力,7B 模型则专为资源受限环境设计,仍能在基准测试中保持竞争力。此外,32B 模型提供指令微调版本,可无缝适配 llama.cpp、vLLM 等主流推理框架,大幅降低开发者集成门槛。
英伟达定制的 OCR 数据集(Open Code Reasoning Dataset)强化了模型的指令遵循能力与复杂问题解决能力,尤其在代码修复、多语言编程等场景中展现出行业领先的性能。开发者可通过自然语言输入快速生成代码片段,显著提升编程效率,同时支持教育领域的实时反馈教学。
合作背景与生态意义
此次开源是英伟达与阿里在 AI 领域深度合作的延续。通义千问 Qwen2.5 系列作为底座模型,其底层技术为英伟达代码推理模型提供了强大的多语言支持与跨平台兼容性。阿里此前开源的 Qwen2.5-Coder 系列已在代码生成、推理等任务中刷新多项开源纪录,其 32B 模型在 EvalPlus、BigCodeBench 等评测中表现超越闭源模型 GPT-4o。
英伟达表示,开源策略旨在推动 AI 技术的普惠化,通过汇聚全球开发者智慧加速技术迭代。此举不仅展示了英伟达在 AI 领域的前沿实力,也为企业和科研机构提供了高效的代码开发解决方案,预计将对软件开发、智能教育等领域产生深远影响。
暂无评论内容