标签:泛化能力
清华大学获X-Embodiment最佳论文奖,机器人顶会CoRL 2024获奖名单出炉
清华大学高阳团队在CoRL 2024会议上获得X-Embodiment Workshop最佳论文奖,其获奖论文《Data Scaling Laws in Imitation Learning for Robotic Manipulation...
LoRA、完全微调到底有何不同?MIT 21页论文讲明白了
本研究旨在探讨完全微调和低秩自适应(LoRA)两种微调大型语言模型方法之间的差异。微调是将预训练的大型语言模型应用于特定下游任务的关键步骤,而LoRA方法...
具身智能GPT-2时刻到了!这家国内公司已做出全球最大规模的端到端统一具身大模型——专访自变量机器人团队
国内初创公司自变量机器人(X Square)专注于具身智能大模型技术,与Open AI投资的Physical Intelligence (PI)技术路线相似。该公司正在训练的Great Wall操作...
132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了
AI在解决高级数学问题上的能力再次取得突破。Meta和巴黎理工学院的研究人员合作,针对数学界长期未解的李雅普诺夫函数问题提出了新的研究。李雅普诺夫函数是...
李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%
李飞飞团队提出了一种名为“数字表亲”的新方法,旨在解决机器人学习中模拟数据与现实环境差异的问题。数字表亲是一种虚拟资产,它不像数字孪生那样精确模拟现...
中国首个通用泛化机器人终于来了!清华校友打造中国版Figure 01,连续泛化丝滑处理多任务
中国具身智能公司千寻智能(Spirit AI)展示了其机器人的多任务连续泛化能力,这是中国首个拥有此类能力的机器人。该公司在短时间内取得了显著的技术进步,其...
6700万参数比肩万亿巨兽GPT-4!微软MIT等联手破解Transformer推理密码
由微软和MIT等机构的研究人员提出的新训练范式,通过因果模型构建数据集,成功地提升了模型的推理能力。该研究团队训练了一个仅有67M参数的微型Transformer模...
谷歌推出全新模型,将Transformer与NAR相结合
在AIGC领域,Transformer架构的引入极大地推动了大模型的技术创新,催生了ChatGPT、Coplit、讯飞星火、文心一言等生成式AI产品。尽管Transformer在自然语言理...
“梗王”大模型,靠讲笑话登上CVPR | 中山大学
这篇文章介绍了中山大学HCP实验室团队与Sea AI Lab以及哈佛大学合作的研究成果,他们提出了一种新的训练方法CLoT,旨在激发多模态大模型的创造力。首先,团队...
CVPR 2024 | 零样本6D物体姿态估计框架SAM-6D,向具身智能更进一步
物体姿态估计在现实世界应用中具有重要意义,如具身智能、机器人灵巧操作和增强现实等。在这一领域,研究热点从实例级别6D姿态估计转向类别级别6D姿态估计,...
1
2