Kimi超过DeepSeek的新模型被指“套壳”Qwen?到底怎么回事儿

AIGC动态5小时前发布 Si-Planet
13 0 0
Kimi超过DeepSeek的新模型被指“套壳”Qwen?到底怎么回事儿

 

文章摘要


【关 键 词】 开源模型代码许可创新

月之暗面近期发布了开源代码模型Kimi-Dev-72B,该模型在软件工程任务基准测试SWE-bench Verified上取得了60.4%的成绩,创下开源模型新纪录,超越了包括DeepSeek在内的多个竞争对手。然而,开发者们发现该模型明确标注了Base model: Qwen/Qwen2.5-72B,这引发了对Kimi-Dev优异表现是否源于创新或“套壳”的疑问。Kimi-Dev-72B并非从零开始训练,而是基于阿里巴巴Qwen团队的72B参数模型进行二次开发。月之暗面采用了大规模强化学习技术,让模型在Docker环境中自主修复真实代码仓库的问题,确保生成的代码不仅正确,而且符合实际开发标准。

在软件工程任务基准测试上,Kimi-Dev-72B展现了出色的性能,实现了显著的提升。在许可证方面,Kimi-Dev-72B采用MIT协议发布,但需要遵守Qwen-2.5-72B的原始许可限制,同时将自己的创新工作以MIT协议开源。这种做法在开源社区中被称为“delta权重”发布,即只发布相对于基础模型的增量部分。

争议的起源是社区对“月之暗面是否获得了使用Qwen-2.5-72B的特殊许可”的质疑。根据Qwen的许可协议体系,72B模型采用的是《通义千问许可协议》,规定当产品的月活跃用户(MAU)超过1亿时,需要向阿里申请商业授权。Qwen团队负责人林俊旸在X平台上的回复揭示了问题的本质,这不是月之暗面的违规使用,而是Qwen团队自身许可策略演进中的“历史遗留问题”。在2025年4月底发布的Qwen3系列中,所有模型都已经采用了更加开放的Apache 2.0协议。

从技术角度看,这个案例反映了当前AI创业的现实。训练一个达到GPT-3质量的30B参数模型需要约45万美元,而更大规模的模型如70B参数级别,成本会达到数百万美元。月之暗面选择Qwen-2.5-72B作为基座并非偶然,根据多项评测,Qwen2.5系列在代码、数学、多语言等方面都达到了业界领先水平。站在这样的基座模型上,月之暗面可以将资源集中在自己的核心优势——强化学习训练方法上。

尽管Kimi-Dev在SWE-bench上取得了优异成绩,但实际应用中仍有改进空间。有开发者测试发现,模型生成的代码有时需要调试才能运行,对复杂需求的理解也不够完整。这说明即使基于强大的基础模型,要做出真正优秀的垂直应用仍需要大量创新。这场“套壳”争议最终成为了一个行业发展的缩影。开源策略正在从限制性许可向完全开放转变,这是赢得开发者生态的必然选择。同时,基于优秀基础模型的“二次创新”正在兴起,关键是找到自己的差异化价值。大厂与创业公司不再是简单的竞争关系,而是在开源生态中形成新的协作模式。

随着更多的开源模型采用Apache 2.0协议,类似的许可争议将越来越少。而像Kimi-Dev这样基于开源模型的专项优化案例,或许会越来越多,这正是开源AI生态繁荣发展的标志。

原文和模型


【原文链接】 阅读原文 [ 1883字 | 8分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 deepseek-v3
【摘要评分】 ★★★★☆

© 版权声明
“绘蛙”

相关文章

“极客训练营”

暂无评论

暂无评论...