标签:MPT-7B

1320亿参数,性能超LLaMA2、Grok-1!开源大模型DBRX

Databricks,一家著名的数据和AI平台,于3月28日正式开源了其大模型DBRX。DBRX是一个专家混合模型(MoE),拥有1320亿参数,能生成文本/代码、数学推理等,有...