自动漂移、用LLM和扩散模型“折腾”机器人…顶会CoRL上最佳论文都在研究啥

AIGC动态1个月前发布 Si-Planet
248 0 0
自动漂移、用LLM和扩散模型“折腾”机器人…顶会CoRL上最佳论文都在研究啥

 

文章摘要


【关 键 词】 机器人学习智能导航人机交互强化学习视觉语言模型

第8届机器人学习大会(CoRL)于2024年11月6日至9日在德国慕尼黑举办,聚焦机器人学习领域的最新研究进展。会议吸引了超过1000名参与者,共收到671篇投稿,其中265篇论文入选。热门议题涵盖机器人适应真实环境、基于感知的导航和人机交互等。华人学者在会议中表现突出,清华交叉信息研究院助理教授许华哲和赵行共有7篇论文被录用,且在最佳论文奖和提名奖的6篇论文中,华人作者占比较高。

最佳论文奖由艾伦人工智能研究所PRIOR团队的Kuo-Hao Zeng等人获得,他们的研究提出了POLIFORMER,一个基于RGB输入的室内导航智能体,通过大规模端到端强化学习训练,无需适应性调整即可从模拟环境直接推广至真实世界。POLIFORMER在多种环境中经过数亿次交互训练,实现了长期记忆和推理能力,显著提升了机器人导航的成功率。

另一篇获奖论文“Outstanding Paper Award”由丰田研究院的Franck Djeumou等人撰写,介绍了一种框架,使用未标记的多模态轨迹数据集学习条件扩散模型,用于高性能的车辆控制。该模型能够捕捉物理驱动的动态模型参数分布,实现极限驾驶下的动态适应。

最佳论文提名奖中,斯坦福大学的Joey Hejna等人探讨了机器人基础模型预训练中合理分配不同子数据集权重的问题,提出了Re-Mix方法。美国东北大学的Dian Wang等人提出了等变扩散策略,提高了去噪函数的样本利用效率和泛化性能。斯坦福大学的Zipeng Fu等人提出了一个全栈系统,实现人形机器人从人类数据中学习运动技能和自主能力。Stanford、UC Berkeley、TRI、Deepmind、MIT合作开发的OpenVLA系统,是一个开源的VLA模型,展示了在通用操作任务中的显著成效。

会议还探讨了机器人领域如何通过大规模数据训练提升性能,包括强化学习与大模型结合、跨模态学习与视觉语言模型等途径。Physical Intelligence(Pi)公司的Chelsea Finn和Sergey Levine分享了公司在机器人领域复制语言基础模型成功经验的尝试,目标是通过互联网的通用数据训练视觉-语言-行动(VLA)模型,然后针对特定用途的机器人进行微调。

“极客训练营”

原文和模型


【原文链接】 阅读原文 [ 4217字 | 17分钟 ]
【原文作者】 硅星人Pro
【摘要模型】 moonshot-v1-32k
【摘要评分】 ★★★★★

© 版权声明
“绘蛙”

相关文章

暂无评论

暂无评论...