标签:泛化能力
7B模型数学推理击穿o1,直逼全美20%尖子生!四轮进化,微软华人新作爆火
微软亚研院的全华人团队提出了一种名为rStar-Math的新算法,该算法通过三项技术创新,使得小型语言模型(SLM)在数学推理能力上取得了突破性进展,甚至超越了...
真机数据白采了?银河通用具身VLA大模型已充分泛化,预训练基于仿真合成大数据!
银河通用机器人发布了全球首个端到端具身抓取基础大模型GraspVLA,这是一个完全基于仿真合成大数据预训练的具身大模型,展现出比OpenVLA、π0、RT-2、RDT等模...
李飞飞团队统一动作与语言,新的多模态模型不仅超懂指令,还能读懂隐含情绪
斯坦福大学的研究团队在多模态语言模型领域取得了新进展,提出了一种能够同时处理语音、文本和动作生成任务的模型。该模型能够理解并生成富有表现力的人类动...
Nature 子刊发表稳定学习新进展:面向多中心、大队列异质数据的「稳定」生存分析方法
崔鹏团队与国家蛋白质科学中心(北京)常乘团队在Nature Machine Intelligence期刊上发表了题为“Stable Cox Regression for Survival Analysis under Distrib...
Ilya Sutskever发声:预训练将结束,数据压榨到头了
Ilya Sutskever,OpenAI的联合创始人和前首席科学家,在离开公司后创办了自己的人工智能实验室Safe Superintelligence,并在NeurIPS 2024会议上发表了演讲。...
智源学者仉尚航:具身基础模型最终状态可能是「4D世界模型」丨具身先锋十人谈
具身多模态大模型作为新兴的创业机会,正受到业界的广泛关注。北京智源人工智能研究院在具身智能领域展示了多项研究成果,特别是仉尚航领导的研究中心,致力...
清华大学获X-Embodiment最佳论文奖,机器人顶会CoRL 2024获奖名单出炉
清华大学高阳团队在CoRL 2024会议上获得X-Embodiment Workshop最佳论文奖,其获奖论文《Data Scaling Laws in Imitation Learning for Robotic Manipulation...
LoRA、完全微调到底有何不同?MIT 21页论文讲明白了
本研究旨在探讨完全微调和低秩自适应(LoRA)两种微调大型语言模型方法之间的差异。微调是将预训练的大型语言模型应用于特定下游任务的关键步骤,而LoRA方法...
具身智能GPT-2时刻到了!这家国内公司已做出全球最大规模的端到端统一具身大模型——专访自变量机器人团队
国内初创公司自变量机器人(X Square)专注于具身智能大模型技术,与Open AI投资的Physical Intelligence (PI)技术路线相似。该公司正在训练的Great Wall操作...
132年未解开的李雅普诺夫函数谜题,被Symbolic Transformer攻克了
AI在解决高级数学问题上的能力再次取得突破。Meta和巴黎理工学院的研究人员合作,针对数学界长期未解的李雅普诺夫函数问题提出了新的研究。李雅普诺夫函数是...