在基于视觉的机器人操作中,当机器人识别物体掌握的对象时,对物体的位置,几何和物理特性的了解并不完美。可变形的物体(例如苏打罐,塑料瓶和纸杯)在学习这些特性的不确定性方面占据了最佳的challenges。为了敏捷地掌握这些,机器人必须在不同的非结构化表示下自适应地控制和协调其手,眼睛和鳍力量的力。换句话说,机器人的手,眼睛和施加力的量必须得到很好的协调。本论文探讨了人类启发的机制的基本原理,并将其应用于基于视觉的机器人抓地力,以开发手眼镜协调以进行可变形的物体操纵。有了一个对象找到任务,机器人遇到了一个无知的对象混乱的非结构化环境。它首先必须查看环境的概述,并存储场景的语义信息,以进行以后的对象触发迭代。使用存储的信息,机器人必须找到所需的对象,仔细抓住它,然后将其带回定义的位置。为了实现感知目标,该机器人首先能够将环境视为一个整体,例如当人类遇到新探索的场景时,并通过模拟视觉选择性注意模型来学会在三维空间中有效地识别对象。最后,在某些特殊情况下,由于人类或以后的迭代中,机器人可能会遇到已经变形的对象。为了更有效地对此进行完善,该机器人还经过训练,可以通过合成的变形对象数据集重新认识这些项目,该对象数据集使用基于直观的Laplacian的网状网格变形过程自动生成。在整个论文中,都解决了这些子问题,并通过在实际机器人系统上进行实验来证明所提出方法的可行性。
抽象的手眼校准是基于视觉机器人系统的基本任务,通常配备协作机器人,尤其是对于中小型企业(中小型企业)的机器人应用。大多数手眼校准方法都取决于外部标记或人类援助。我们提出了一种新的方法,该方法可以使用机器人基础作为参考来解决手眼校准问题,从而消除了对外部校准对象或人类干预的需求。使用机器人底座的点云,从相机的坐标框架到机器人底座的转换矩阵被确定为“ i = axb”。为此,我们利用基于学习的3D检测和注册算法来估计机器人基础的位置和方向。该方法的鲁棒性和准确性是通过基于基础真实性的评估来量化的,并且将精度结果与其他基于3D视觉的校准方法进行了比较。为了评估我们的方法论的可行性,我们在不同的关节构造和实验组中使用了低成本结构化的轻扫描仪进行了实验。根据实验结果,提出的手眼校准方法达到了0.930 mm的翻译偏差,旋转偏差为0.265度。此外,3D重建实验表明旋转误差为0.994度,位置误差为1.697 mm。此外,我们的方法提供了在1秒内完成的潜力,这是与其他3D手眼校准方法相比最快的。相关代码在https://github.com/leihui6/lrbo上发布。我们根据手眼校准方法进行室内3D重建和机器人抓握实验。