摘要在本文中,我们考虑了从机器人箱拾取设置中从RGB或灰度相机图像中分割多个实例的问题。用于解决此任务的先前方法通常是在Mask-RCNN框架上构建的,但是它们需要大量注释的数据集进行填充。取而代之的是,我们在几个拍摄设置中考虑任务,并在trinseg中考虑了基于mask-rcnn的透明对象的数据效率和健壮的实例分割方法。我们在trinseg中的关键创新是双重的:i)一种被称为transmixup的新颖方法,用于使用合成透明的对象实例生成新的训练图像,该图像是通过空间转换带注释的示例创建的; ii)一种评分理想对象模板的预测段和旋转之间一致性的方法。在我们的新评分方法中,空间转换是由辅助神经网络产生的,然后将得分用于填充不一致的实例预测。为了证明我们方法的效果,我们介绍了一个新的几种数据集的实验,该数据集由七个类别的非偏见(透明和半透明)对象组成,每个类别的大小,形状和透明度的透明度变化。我们的结果表明,Trinseg实现了最先进的性能,在MIOU中提高了14%以上的细化面膜RCNN,同时需要很少的带注释的培训样本。
主要关键词