摘要 - 促进感知的目的是通过利用附近连接的自动化车辆(CAV)的补充信息来实现整体感知的结构,从而赋予了更广泛的探测范围。尽管如此,如何合理地汇总自明观察仍然是一个开放的问题。在本文中,我们提出了一种新型的车辆对车辆感知框架 - 以基于TR ANSFORMER的CO Llaboration(COTR)称为V2VFormer。特别是。根据空间感知变压器(SAT)的位置相关性,它重新估算了特征的重要性,然后与通道的变压器(CWT)执行动态语义相互作用。,COTR是一个轻巧和插件的模块,可以将其无缝调整到带有可接受的计算开销的未货架3D检测器上。此外,通过各种驾驶条件进一步增强了大规模的合作感知数据集V2V-集合,从而为模型预处理提供了广泛的知识。定性和定量实验证明了我们提出的V2Vformer在模拟和现实世界情景中实现了最新的(SOTA)协作绩效,从而超过了所有对应方面的大量余量。我们希望这将推动未来网络自主驱动研究的进步。
在这项工作中,我们提出了一种新颖的歧视性框架,用于灵巧的掌握生成,称为d外部g rasp tr ansformer(dgtr),能够通过仅使用一个向前的通行方式处理对象点云来预测一组可行的抓握姿势。我们将敏捷的掌握生成作为设定的预测任务,并为其设计一个基于变压器的握把模型。但是,我们确定此设置的预测范式在灵活的掌握领域遇到了几种优化的挑战,并导致限制性能。为了解决这些问题,我们提出了培训和测试阶段的渐进策略。首先,提出了动态静态匹配训练(DSMT)策略,以增强训练阶段的光学稳定性。第二,我们使用一对对抗性损失来实现对抗平衡的测试时间适应(ABTTA),以提高测试阶段的掌握质量。dexgraspnet数据集的实验结果证明了DGTR可以预测具有高质量和多样性的灵活掌握姿势的能力。值得注意的是,在保持质量高的同时,DGTR Sigsigs所预测的Grasp的多样性明显优于先前的多个指标,而没有任何数据预处理。代码可在https://github.com/isee-laboratory/dgtr上找到。