创新性3D数据合成模型,微软推出EgoGen

AIGC动态9个月前发布 AIGCOPEN
831 0 0

作者信息


【原文作者】 AIGC开放社区
【作者简介】 专注AIGC领域的专业社区,关注微软OpenAI、百度文心一言、讯飞星火等大语言模型(LLM)的发展和应用落地,聚焦LLM的市场研究和AIGC开发者生态,欢迎关注!
【微 信 号】 AIGCOPEN

创新性3D数据合成模型,微软推出EgoGen
 

文章摘要


【关 键 词】 AIGC微软苏黎世联邦理工学院EgoGen强化学习

本文介绍了微软和苏黎世联邦理工学院研究人员共同开发的EgoGen模型,这是一个用于生成第一视角训练数据的工具,旨在解决AR/VR等设备在第一人称应用开发中遇到的挑战。

EgoGen通过创新的人体运动合成模型,利用虚拟人的自我中心视觉输入来感知3D环境,消除了对预定义全局路径的需求,适用于动态环境。

该模型结合了自我感知视觉代理的双阶段强化学习方案,通过“注意”奖励来激励自我感知行为,使虚拟人物的运动更加自然和逼真。

研究人员通过奖励函数引导虚拟人物的行为,使其在感知任务中更加专注和准确。

EgoGen在头戴式摄像头的建图和定位、摄像头跟踪以及从第一视角恢复人体网格等任务上进行了评估,显著提升了现有最先进算法的性能。

原文信息


【原文链接】 阅读原文
【原文字数】 1172
【阅读时长】 4分钟

© 版权声明

相关文章

暂无评论

暂无评论...