Loading...
机构名称:
¥ 8.0

在基于视觉的机器人操作中,当机器人识别物体掌握的对象时,对物体的位置,几何和物理特性的了解并不完美。可变形的物体(例如苏打罐,塑料瓶和纸杯)在学习这些特性的不确定性方面占据了最佳的challenges。为了敏捷地掌握这些,机器人必须在不同的非结构化表示下自适应地控制和协调其手,眼睛和鳍力量的力。换句话说,机器人的手,眼睛和施加力的量必须得到很好的协调。本论文探讨了人类启发的机制的基本原理,并将其应用于基于视觉的机器人抓地力,以开发手眼镜协调以进行可变形的物体操纵。有了一个对象找到任务,机器人遇到了一个无知的对象混乱的非结构化环境。它首先必须查看环境的概述,并存储场景的语义信息,以进行以后的对象触发迭代。使用存储的信息,机器人必须找到所需的对象,仔细抓住它,然后将其带回定义的位置。为了实现感知目标,该机器人首先能够将环境视为一个整体,例如当人类遇到新探索的场景时,并通过模拟视觉选择性注意模型来学会在三维空间中有效地识别对象。最后,在某些特殊情况下,由于人类或以后的迭代中,机器人可能会遇到已经变形的对象。为了更有效地对此进行完善,该机器人还经过训练,可以通过合成的变形对象数据集重新认识这些项目,该对象数据集使用基于直观的Laplacian的网状网格变形过程自动生成。在整个论文中,都解决了这些子问题,并通过在实际机器人系统上进行实验来证明所提出方法的可行性。

机器人操纵的手眼协调

机器人操纵的手眼协调PDF文件第1页

机器人操纵的手眼协调PDF文件第2页

机器人操纵的手眼协调PDF文件第3页

机器人操纵的手眼协调PDF文件第4页

机器人操纵的手眼协调PDF文件第5页