与 Open AI 分手后,Figure 推出具身模型 Helix,多个机器人一同做家务

文章摘要
【关 键 词】 人形机器人、VLA模型、多机协作、自然语言控制、高效控制
Figure公司近日推出首个自主研发的具身智能模型Helix,实现了对人形机器人上半身35个自由度的高速协调控制。该模型通过融合视觉、语言与感知能力,使人形机器人能以200Hz频率完成抓取、搬运等复杂操作,并在多机协作场景中展现出突破性表现。
在技术实现层面,Helix采用双系统架构创新:系统2(S2)以7-9Hz频率运行视觉语言模型,负责场景解析与语义理解;系统1(S1)则以200Hz高频执行视觉运动策略,将语义指令转化为精确动作。这种分层设计既保证了高级认知的泛化能力,又实现了毫秒级实时响应。测试显示,机器人能通过”拿起[X]”的简单指令处理数千种未见物品,包括准确识别”沙漠物品”并抓取玩具仙人掌。
多机协作方面,Helix首次实现了双机器人零样本任务协同。两台搭载相同模型参数的机器人通过自然语言指令,可完成”传递饼干-存放抽屉”等连续协作任务。视频演示中,机器人通过头部运动协调视线与躯干动作,在传递物品时展现出类人的交互默契。不过业内人士指出,当前协作任务仍属基础层级,复杂场景下的动态规划仍是待突破课题。
模型训练方面,Helix仅用500小时监督数据即达到商用水平,数据量仅为行业常规需求的5%。其采用端到端训练方案,单个神经网络即可处理抓取、使用家电、跨机交互等多类任务,无需针对特定场景微调。值得注意的是,该模型可直接部署在低功耗嵌入式GPU,为商业化落地扫清硬件障碍。
在行业应用层面,Helix突破了人形机器人精细化操作瓶颈。手腕、手指等末端执行器的连续控制精度,配合头部动态视野调节能力,使机器人能在非结构化环境中保持操作稳定性。Figure创始人透露,该系统已具备处理家庭场景常见物品的能力,但整体仍处早期发展阶段。与1X Technologies等厂商的技术路线不同,Helix的分层架构允许各子系统独立迭代,这种设计思路为后续升级预留了空间。
原文和模型
【原文链接】 阅读原文 [ 2067字 | 9分钟 ]
【原文作者】 AI科技评论
【摘要模型】 deepseek-r1
【摘要评分】 ★★★★★