在这项工作中,我们提出了一种新颖的歧视性框架,用于灵巧的掌握生成,称为d外部g rasp tr ansformer(dgtr),能够通过仅使用一个向前的通行方式处理对象点云来预测一组可行的抓握姿势。我们将敏捷的掌握生成作为设定的预测任务,并为其设计一个基于变压器的握把模型。但是,我们确定此设置的预测范式在灵活的掌握领域遇到了几种优化的挑战,并导致限制性能。为了解决这些问题,我们提出了培训和测试阶段的渐进策略。首先,提出了动态静态匹配训练(DSMT)策略,以增强训练阶段的光学稳定性。第二,我们使用一对对抗性损失来实现对抗平衡的测试时间适应(ABTTA),以提高测试阶段的掌握质量。dexgraspnet数据集的实验结果证明了DGTR可以预测具有高质量和多样性的灵活掌握姿势的能力。值得注意的是,在保持质量高的同时,DGTR Sigsigs所预测的Grasp的多样性明显优于先前的多个指标,而没有任何数据预处理。代码可在https://github.com/isee-laboratory/dgtr上找到。
自动从单个深度进一步检测可抓地的区域是布操作中的关键要素。布料变形的巨大变异性促使当前大多数方法专注于识别特定的握把而不是半偏零件,因为当地区域的外观和深度变化比较大的区域更小,更易于建模。但是,诸如折叠或辅助敷料之类的任务需要识别较大的细分市场,例如语义边缘带有更多信息,而不是点。因此,我们首先仅使用深度图像来解决变形衣服中细粒区域检测的问题。我们实施了T恤的方法,并最多定义了多达6个不同程度的语义区域,包括领口,袖袖和下摆的边缘,以及顶部和底部的握把。我们引入了一个基于U-NET的网络,以细分和标记这些部分。我们的第二个贡献与培训拟议网络所需的监督水平有关。大多数方法都学会