机器人的交互式视觉任务学习
机构名称:
¥ 1.0

我们为机器人提供了一个可证明的框架,可以通过与人类用户的原位语言互动来学习新颖的视觉概念和视觉任务。compoter视觉中的先前方法已经使用了大型的预训练的视觉模式来推断新的对象为零,或者添加了新颖的概念及其属性和表示形式。我们扩展了专注于学习视觉概念层次结构的方法,并将这一能力进一步发展,以展示对机器人的新任务解决以及博学的视觉概念。为了使视觉识别学习者能够单发解决机器人技术任务,我们开发了两种不同的技术。首先,我们提出了一种新颖的方法,即Hi-viscont(任务的层次视觉概念学习者),该方法在概念层次结构中向其父节点增强了新颖概念的信息,该信息正在教授。此信息传播允许层次结构中的所有概念都可以更新,因为在不断学习的环境中教授新颖概念。其次,我们将视觉任务表示为带有语言注释的场景图。场景图允许我们创建一个现场的零射击任务零射击的新颖置换。结合了两种技术,我们在一个真实机器人上提出了一个示例,该机器人从与人类用户的原位互动中以一击学习视觉任务和概念,并概括地执行以零射击相同类型的新型视觉任务。我们将与机器人和其他必需的硬件亲自展示我们的工作相互作用的学习管道。如主会议pa的研究所示,我们的系统在正确地解决整个任务的概括方面达到了50%的成功率,基线的表现为17%,而没有任何能力将新颖的任务和概念推广到新任务。

机器人的交互式视觉任务学习

机器人的交互式视觉任务学习PDF文件第1页

机器人的交互式视觉任务学习PDF文件第2页

机器人的交互式视觉任务学习PDF文件第3页

相关文件推荐

视觉任务
2024 年
¥1.0
独立学习任务
2024 年
¥1.0
独立学习任务
2024 年
¥1.0
3D视觉驱动机器人
2024 年
¥1.0
讲座14:机器人学习