标签:泛化能力

李飞飞团队统一动作与语言,新的多模态模型不仅超懂指令,还能读懂隐含情绪

斯坦福大学的研究团队在多模态语言模型领域取得了新进展,提出了一种能够同时处理语音、文本和动作生成任务的模型。该模型能够理解并生成富有表现力的人类动...

Nature 子刊发表稳定学习新进展:面向多中心、大队列异质数据的「稳定」生存分析方法

崔鹏团队与国家蛋白质科学中心(北京)常乘团队在Nature Machine Intelligence期刊上发表了题为“Stable Cox Regression for Survival Analysis under Distrib...

Ilya Sutskever发声:预训练将结束,数据压榨到头了

Ilya Sutskever,OpenAI的联合创始人和前首席科学家,在离开公司后创办了自己的人工智能实验室Safe Superintelligence,并在NeurIPS 2024会议上发表了演讲。...

智源学者仉尚航:具身基础模型最终状态可能是「4D世界模型」丨具身先锋十人谈

具身多模态大模型作为新兴的创业机会,正受到业界的广泛关注。北京智源人工智能研究院在具身智能领域展示了多项研究成果,特别是仉尚航领导的研究中心,致力...

清华大学获X-Embodiment最佳论文奖,机器人顶会CoRL 2024获奖名单出炉

清华大学高阳团队在CoRL 2024会议上获得X-Embodiment Workshop最佳论文奖,其获奖论文《Data Scaling Laws in Imitation Learning for Robotic Manipulation...

LoRA、完全微调到底有何不同?MIT 21页论文讲明白了

本研究旨在探讨完全微调和低秩自适应(LoRA)两种微调大型语言模型方法之间的差异。微调是将预训练的大型语言模型应用于特定下游任务的关键步骤,而LoRA方法...

具身智能GPT-2时刻到了!这家国内公司已做出全球最大规模的端到端统一具身大模型——专访自变量机器人团队

国内初创公司自变量机器人(X Square)专注于具身智能大模型技术,与Open AI投资的Physical Intelligence (PI)技术路线相似。该公司正在训练的Great Wall操作...

132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了

AI在解决高级数学问题上的能力再次取得突破。Meta和巴黎理工学院的研究人员合作,针对数学界长期未解的李雅普诺夫函数问题提出了新的研究。李雅普诺夫函数是...

李飞飞「数字表兄弟」破解机器人训练难题!零样本sim2real成功率高达90%

李飞飞团队提出了一种名为“数字表亲”的新方法,旨在解决机器人学习中模拟数据与现实环境差异的问题。数字表亲是一种虚拟资产,它不像数字孪生那样精确模拟现...

中国首个通用泛化机器人终于来了!清华校友打造中国版Figure 01,连续泛化丝滑处理多任务

中国具身智能公司千寻智能(Spirit AI)展示了其机器人的多任务连续泛化能力,这是中国首个拥有此类能力的机器人。该公司在短时间内取得了显著的技术进步,其...
1 2