“Grok”的搜索结果

3140参数Grok-1推理加速3.8倍,PyTorch+HuggingFace版来了
这篇文章介绍了马斯克开源的Grok-1,以及Colossal-AI团队为Grok-1提供的方便易用的Python+PyTorch+HuggingFace版本,能将推理时延加速近...
3140亿参数,可商用!马斯克开源大模型Grok-1
3月18日,马斯克兑现了开源承诺,将旗下公司x.ai的大模型Grok-1正式开源,并支持商业化用途。在这段文本中,重点词语和句子已经使用HTML...
马斯克突然开源Grok:3140亿参数巨无霸,免费可商用
这篇文章介绍了马斯克旗下的xAI公司开源了其大模型Grok-1,这是一个拥有3140亿参数的混合专家模型,是目前开源模型中参数量最大的一个。...
马斯克开源Grok-1:3140亿参数迄今最大,权重架构全开放,磁力下载
马斯克旗下的大模型公司xAI宣布正式开源了3140亿参数的混合专家(MoE)模型「Grok-1」,这是目前参数量最大的开源大语言模型。Grok-1模...
刚刚!马斯克履约开源Grok,超越Llama成全球最大开源模型,却被怀疑是作秀?!
马斯克宣布开源Grok,兑现了之前的承诺。Grok-1是一个由xAI从头训练的3140亿参数的混合专家模型,其架构在2023年10月使用自定义训练堆栈...
刚刚,马斯克xAI官宣开源自家大模型Grok!网友:现压力给到了OpenAI
马斯克宣布将在本周开源自家大模型Grok,这一举动被认为是成功占领道德高地,给OpenAI带来压力。Grok是马斯克的xAI公司的第一个大语言模...
马斯克将在本周,开源类ChatGPT产品Grok
本文介绍了一个专注于AIGC领域的专业社区,关注微软 &OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地的情况。文章...
中国最大开源MoE模型,255B参数无条件免费商用,元象发布
元象XVERSE发布了中国最大的MoE(Mixture of Experts)开源模型XVERSE-MoE-A36B,该模型拥有255B的总参数和36B的激活参数,实现了在不显...
100B 的「跨级」跃升!元象发布最大 MoE 开源大模型,「高性能全家桶」系列全部免费
元象 XVERSE 于 9 月 13 日发布了中国最大的 MoE(Mixture of Experts)开源模型 XVERSE-MoE-A36B,该模型拥有 255B 的总参数和 36B 的...
马斯克的「xAI」计划
Elon Musk's newly-founded AI company, xAI, has made significant strides in the field of artificial intelligence with the releas...
1 2 3 4 5