一款小而强大的编程助手:零一万物正式开源Yi-Coder系列模型

AIGC动态3个月前发布 ai-front
664 0 0
一款小而强大的编程助手:零一万物正式开源Yi-Coder系列模型

 

文章摘要


【关 键 词】 Yi-Coder模型编程任务性能强大多语言支持开源成果

零一万物公司近期开源了Yi-Coder系列模型,这是继Yi-1.5系列模型之后的又一开源成果。Yi-Coder系列专为编程任务设计,提供1.5B和9B两种参数规模的模型。其中,Yi-Coder-9B在性能上超越了其他10B参数以下的模型,甚至能与33B参数的DeepSeek-Coder相媲美。

Yi-Coder模型的特点包括小参数量但性能强大,能够处理长达128K tokens的长序列,有效捕捉长期依赖关系,适用于复杂代码的理解和生成。此外,Yi-Coder支持52种主要编程语言,在代码生成和跨文件代码补全方面表现出色。

在LiveCodeBench基准测试中,Yi-Coder-9B-Chat的通过率达到23.4%,在10B以下参数量的模型中排名第一,超过了DeepSeek-Coder-33B-Instruct、CodeGeex4-All-9B、CodeLLama-34B-Instruct和CodeQwen1.5-7B-Chat等模型。在Zero-shot HumanEval、3-shot MBPP和CRUXEval-O等基准测试中,Yi-Coder同样展现了优异的性能,尤其在CRUXEval-O中的准确率首次达到50%以上。

在代码编辑和补全能力方面,Yi-Coder-9B-Chat在CodeEditorBench的Primary和Plus子集中均优于其他模型。在跨文件代码补全的CrossCodeEval基准测试中,Yi-Coder在有检索和无检索的情况下均优于同等规模的模型。

Yi-Coder在长序列建模方面也表现优秀,成功完成了128K长序列的“Needle in the code”评估任务。在数学推理能力方面,Yi-Coder在七个数学题数据集上的准确率达到70.3%,超过了DeepSeek-Coder 33B的65.8%。

对于希望尝试Yi-Coder的用户,可以通过阅读原文获取Yi-Coder的README,了解具体的下载和使用步骤。此外,AICon全球人工智能开发与应用大会·上海站成功举办,提供了大模型训练与推理机制、多模态融合等热点内容的深入剖析。QCon会议则涵盖了AI应用开发、大模型基础设施与算力优化等多个方面,现在报名可享受9折优惠。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 1457字 | 6分钟 ]
【原文作者】 AI前线
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★☆☆☆

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...