Tac2Pose第一次触摸时的触觉对象姿势估计
触觉感应对于机器人操作应用很重要。在这里,遮挡对准确的对象姿态估计提出了挑战,并且对象动力学由接触交互控制。arXiv.org上最近的一篇论文提出了一个框架,可以从已知几何形状的对象的第一次触摸中估计触摸对象的姿势。
给定对象的3D模型,该方法在模拟中学习特定于对象的感知模型。它通过计算真实接触形状和一组模拟接触形状之间的概率来推理姿势分布。因此,可以合并额外的约束,例如由多接触场景或先前的对象姿态估计产生的约束。
对真实数据集的评估表明,所提出的框架在与不同的对象特征接触时实现了很高的定位精度。
在本文中,我们介绍了Tac2Pose,这是一种特定于对象的方法,可以从已知对象的第一次触摸开始进行触觉姿势估计。给定物体几何形状,我们在模拟中学习了一个定制的感知模型,该模型在给定触觉观察的情况下估计可能的物体姿势的概率分布。为此,我们模拟了一组密集的物体姿势会在传感器上产生的接触形状。然后,给定从传感器获得的新接触形状,我们使用通过对比学习学习的特定于对象的嵌入将其与预先计算的集合进行匹配。我们使用与对象无关的校准步骤从传感器获取接触形状,该校准步骤将RGB触觉观察映射到二进制接触形状。这种映射可以跨对象和传感器实例重复使用,是使用真实传感器数据训练的唯一步骤。这产生了一个感知模型,该模型从第一次真实的触觉观察中定位对象。重要的是,它产生姿势分布,并且可以包含来自其他感知系统、联系人或先验的额外姿势约束。
我们提供了20个对象的定量结果。Tac2Pose通过独特的触觉观察提供高精度姿势估计,同时回归有意义的姿势分布以解释可能由不同对象姿势产生的接触形状。我们还在从3D扫描仪重建的对象模型上测试Tac2Pose,以评估对象模型对不确定性的鲁棒性。最后,我们展示了Tac2Pose与三种用于触觉姿态估计的基线方法相比的优势:使用神经网络直接回归对象姿态,使用标准分类神经网络将观察到的接触与一组可能的接触进行匹配,以及直接像素比较与一组可能的联系人的观察到的联系人。
标签: