清华系2B模型杀出,性能吊打LLaMA-13B,170万tokens仅需1块钱!

AIGC动态10个月前发布 ai-front
1,245 0 0

作者信息


【原文作者】 AI前线
【作者简介】 面向AI爱好者、开发者和科学家,提供AI领域技术资讯、一线业界实践案例、搜罗整理业界技术分享干货、AI论文解读。每周一节技术分享公开课,助力你全面拥抱人工智能技术。
【微 信 号】 ai-front

清华系2B模型杀出,性能吊打LLaMA-13B,170万tokens仅需1块钱!
 

文章摘要


【关 键 词】 端侧语言大模型MiniCPM系列开源性能超越未来发展

文章主要介绍了面壁智能与清华大学自然语言处理实验室共同开源端侧语言大模型MiniCPM系列MiniCPM-2B模型仅有24亿非词嵌入参数量,但在综合榜单上表现出色,超越了多个大型模型。开源模型包括MiniCPM-2B的指令微调和人类偏好对齐版本、多模态模型MiniCPM-V以及它们的Int4量化版。此外,还有基于MLC-LLM和LLMFarm开发的手机端程序,可在手机上进行文本和多模态模型的推理。

文章还提到了MiniCPM在多项主流测评中的优异表现,如中英平均成绩超过Mistral-7B,以及在英文能力上超越Llama2-13B和Falcon-40B等。MiniCPM展示了强大的语言、数学、编程和多模态能力。

最后,文章介绍了面壁智能的开源工作和未来的发展方向,强调了端侧模型在大模型技术中的重要性及其商业潜力。

原文信息


【原文链接】 阅读原文
【原文字数】 3555
【阅读时长】 12分钟

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...