Figure 创始人兼 CEO 布雷特・阿德科克(Brett Adcock)发布了一种新的机器学习模型 Helix,旨在提高人形机器人在家庭环境中的运用才能。这一音讯正值 Figure 宣告与 OpenAI 的协作完毕仅两周,显示出他们在机器人技术领域的坚决决计。

Helix 是一个 “通用型” 的视觉 – 言语 – 举动(VLA)模型,可以经过视觉数据和言语指令来实时操控机器人。它的作业原理与谷歌 DeepMind 的 RT-2类似,后者经过视频与大型言语模型的结合练习机器人。Helix 则更进一步,它展现了强壮的物体通用性,可以辨认并拾取不计其数种在练习中未见过的家居物品,这一切只需用户用自然言语进行指令。
Helix 以很少的资源完成了强壮的目标泛化。一共运用约 500 小时的高质量监督数据来练习 Helix,这仅仅是之前搜集的 VLA 数据集的一小部分(<5%),而且不依赖于多机器人搜集或多个练习阶段。这代表 Figure 在扩展人形机器人行为方面迈出了革新性的一步。