标签:Meta

专为训练Llama 3,Meta 4.9万张H100集群细节公布

这篇文章报道了Meta公司推出的两个24k GPU集群,共计49152个H100 GPU,作为对人工智能领域的重大投资。Meta表示他们致力于开放计算和开源,并将使用这些算力...

Meta公开 Llama-3基础训练设施:使用了49,000个H100

3月13日,Meta宣布推出两个全新的24K H100 GPU集群,用于训练大型模型Llama-3。Llama-3采用RoCEv2网络和基于Tectonic/Hammerspace的NFS/FUSE网络存储,同时使...

Llama-3公布基础训练设施,使用49,000个H100

这篇文章介绍了Meta在AI领域的最新动态。Meta宣布推出两个全新的24K H100 GPU集群,用于训练大型模型Llama-3,预计将于4月末或5月中旬上线。Meta计划到2024年...

马克.扎克伯格谈空间计算、Meta 的雷朋智能眼镜和 Quest 3

本文主要讨论了作者在上海和硅谷生活的最大区别,即消费观念的差异。作者表示,当手上有300美金闲钱时,他会选择购买不同的物品,如天猫包包或最新电子设备。...

LLaMa 3或将推迟到7月发布,剑指GPT-4,从Gemini吸取教训

Meta的LLaMa 3模型正在开发中,旨在解决LLaMa 2在回答有争议问题时的保守性问题。LLaMa 2在处理极端情况时的保守性是必要的,如暴力或非法活动相关查询,但这...

Llama 3被爆7月解禁剑指GPT-4,最大参数超1400亿!2名核心团队成员却离职

新智元报道:据外媒报道,Meta计划在7月发布Llama 3,这是一个开源大模型,预计将具有超过1400亿参数,性能将远超Llama 2。Llama 3将解除一些限制,能更好地...

端侧最强,Meta田渊栋等人卷10亿以下参数小模型,LeCun:小技巧启动

Meta 推出 MobileLLM 系列,一款适用于移动设备上的「小」模型。Meta 最新论文介绍了 MobileLLM,一款专为移动设备设计的小型语言模型(LLM)。图灵奖得主 Ya...

OpenAI推出“Meta-Prompting”,显著提升GPT-4等模型内容准确性

本文介绍了一个名为Meta-ProMetating(简称“Meta”)的创新大模型增强框架,由OpenAI和斯坦福大学的研究人员共同推出。Meta旨在提升GPT-4、PaLM和LLaMa等大语...

追赶OpenAI的Sora:Meta开源V-JEPA,让AI学会认识世界!

Meta公司基于Yann LeCun提出的JEPA(联合嵌入预测架构)模型,开发了非生成视频模型V-JEPA。该模型旨在通过观察和自我思考、总结,使AI模型能够学习并模拟世...

在Sora引爆视频生成时,Meta开始用Agent自动剪视频了

LAVE是一个视频剪辑工具,它通过LLM提供语言增强功能,包括基于LLM的规划和执行智能体,能够解释用户的自由格式语言命令、进行规划和执行相关操作以实现用户...
1 2 3