标签:混合专家模型

开源大模型王座再易主,1320亿参数DBRX上线,基础、微调模型都有

Databricks,一家大数据人工智能公司,开源了一款名为DBRX的通用大模型。这款模型拥有1320亿参数,是一种混合专家模型(MoE)。DBRX的基础和微调版本已经在Gi...