32K上下文,Mistral 7B v0.2 基模型突然开源了

32K上下文,Mistral 7B v0.2 基模型突然开源了

 

文章摘要


【关 键 词】 模型性能竞争对手合作开源

Mistral AI最新发布了,是的原始预训练模型,更新内容包括将<8K上下文>提升至<32K>、设为<1e6>以及取消<滑动窗口>。该模型在性能上有了显著提升,被认为是同尺寸级别中最优秀的模型之一。Mistral AI在<2023年9月>发布的第一个<7B模型>在多个基准测试中表现优于,使得迅速获得知名度。目前,许多<开源大模型>都将的系列模型作为直接竞争对手在<2023年12月>已经开始测试,虽然在上的得分略低于,但被认为是当前最好的<7B模型>之一。的长远目标是与竞争。最近,发布了旗舰级大模型,性能更强,体量更大,直接对标。同时,与<微软>达成了长期合作协议,<微软>将投资<1600万美元>并将引入平台。合作重点包括<超算基础设施>、<市场推广>和<人工智能研发>。联合创始人表示,公司一直提供<开源模型>,但也有<商业模式>,以支持昂贵的研究。整体来看,在不断更新模型、与<微软>合作的同时,保持着<开源精神>,致力于在<人工智能领域>取得更大的成就。

原文和模型


【原文链接】 阅读原文 [ 928字 | 4分钟 ]
【原文作者】 机器之心
【摘要模型】 gpt-3.5-turbo-0125
【摘要评分】 ★☆☆☆☆

© 版权声明

相关文章

暂无评论

暂无评论...