
文章摘要
加拿大AI初创公司Cohere发布了其最新生成式AI模型Command A,专为企业应用场景设计。该模型由transformer论文作者之一Aidan Gomez与多伦多大学校友Ivan Zhang和Nick Frosst联合创立。Command A是2024年3月首次亮相的Command-R及后续Command R+大模型的继任者,以Cohere在检索增强生成(RAG)、外部工具以及企业AI效率领域的研发成果为基础,主要强调以更快速度完成计算并交付答案。
Command A在商业、STEM及编码任务中等同或超越了OpenAI的GPT-4o与DeepSeek-V3,可仅依托两张GPU(A100或H100)运行,相较于其他需要多达32张GPU模型在效率上实现了显著提升。每秒可生成156个token,相当于GPT-4o的1.75倍,DeepSeek-V3的2.4倍。降低延迟,首token生成时间为6500毫秒,优于GPT-4o的7460毫秒与DeepSeek-V3的14740毫秒。增强多语言AI能力,改进了对阿拉伯语方言的支持并扩展支持23种全球语言。
Command A的核心特性包括高级检索增强生成(RAG)、使用代理式工具、North AI平台集成、可扩展性与成本效率、支持多种语言。速度是企业AI部署中的关键因素,Command A的设计目标正是以超越竞争对手的速度交付生成结果。100K上下文请求的token流速度为每秒73个token,首次token生成速度更快。基准测试结果中,Command A在使用阿拉伯语响应英语提示词的准确率为98.2%,高于DeepSeek-V3的94.9%与GPT-4o的92.2%。它在方言一致性方面的表现也明显优于竞争对手,ADI2得分为24.7,远高于GPT-4o的15.9与DeepSeek-V3的15.7。
Command A将上下文长度增加了一倍,达到25.6万个token,同时提高了整体效率与生产应用就绪水平。现在,Command A已在Cohere平台上正式上线,并在Hugging Face上基于Creative Commons Attribution Non Commercial 4.0 International (CC-by-NC 4.0)许可证提供开放权重,但仅供研究使用。后续还将面向广泛云服务商提供支持方案。输入token:每百万个2.5美元;输出token:每百万个10.00美元。可根据要求提供私有与本地部署。
多位AI研究人员及Cohere团队成员表达了自己对于Command A的赞赏之情。Cohere公司预训练专家Dwaraknath Ganesan在X上发帖表示:“很高兴能够展示我们过去几个月间倾力研究的成果!Command A非常出色,只需两张H100 GPU即可部署!256K上下文长度、经过扩展的多语言支持、代理式工具使用……我们对此深感自豪。”Cohere公司AI研究员Pierre Richemond补充道,“Command A是我们全新打造的GPT-4o/DeepSeek V3级别、开放权重111B模型,可支持256K上下文长度,且针对企业用例的运行效率进行了优化。”
Command A有望成为那些预算有限、但又亟需建立AI优势的企业,以及快速响应类应用场景(例如金融、医疗、医学、科学和法律)下的理想模型选项。
原文和模型
【原文链接】 阅读原文 [ 1581字 | 7分钟 ]
【原文作者】 AI前线
【摘要模型】 deepseek-v3
【摘要评分】 ★★★☆☆