环境感知是在动态复杂的操作环境中安全执行任务的重要要求(ASV)的至关重要要求。大多数现有的船舶检测方法都取决于基于相机的方法,这些方法对环境条件敏感,无法直接提供与检测目标有关的空间位置信息。为了克服这一限制,我们提出了一个基于激光雷达的船舶检测和跟踪框架,可以应用于繁忙的海上环境。所提出的框架由两个功能模块组成:船舶检测和多对象跟踪。用于船舶检测,对模块化的网络结构进行了调整,从而使在不同类型的检测网络之间易于切换,以确定检测准确性,检测速度或两者的妥协,具体取决于任务要求。还实施了一种基于卡尔曼滤波器的多目标跟踪方法,以补偿由于船舶运动或闭塞而可能遗漏的任何检测,仅依赖于检测结果。我们还收集了有史以来的第一个现实世界激光雷达数据集,用于横跨泰晤士河和码头的海上应用,包括一系列船舶类型,长度从5 m到40 m,以及不同的船体类型。数据集的组织方式与Kitti数据集类似,可以轻松地将其应用于发达的点云检测网络。值得注意的是,我们的方法在收集的数据集中达到了74.1%的总体检测准确性。所提出的框架和数据集使基于激光雷达的环境感知可行,可在自主海洋导航领域实施和支持开发。
摘要 - 全球覆盖范围和全球覆盖范围的准确定位,使其成为具有无障碍天空视图的开放区域的可靠选择。但是,在室内空间和城市峡谷中可能发生信号降解。相比之下,惯性测量单元(IMU)由陀螺仪和加速度计组成,这些计量机提供了相对运动信息,例如加速度和旋转变化。与GPS不同,IMU不依赖外部信号,使其在受GPS有限的环境中有用。尽管如此,由于误差的积累,IMU在整合加速度以确定速度和位置的同时会流动。因此,融合GPS和IMU对于增强自动驾驶汽车中导航系统的可靠性和精度至关重要,尤其是在GPS信号受到损害的环境中。为了确保平稳导航并克服每个传感器的局限性,提出的方法将融合GPS和IMU数据。此传感器融合使用无知的卡尔曼过滤器(UKF)贝叶斯过滤技术。拟议的导航系统旨在坚固,为自动驾驶汽车的安全操作(尤其是在GPS被拒绝的环境中的安全操作)至关重要的连续和准确的定位。该项目使用Kitti GNSS和IMU数据集进行实验验证,表明GNSS-IMU融合技术可减少仅GNSS的RMSE。RMSE分别从13.214、13.284和13.363降至4.271、5.275和0.224,分别为X轴,Y轴和Z轴。使用UKF的实验结果显示了使用GPS和IMU传感器融合改善自动驾驶汽车导航的有希望的方向,并使用GPS有限环境中的两个传感器中的最佳融合。索引术语 - 自主车位,全球定位系统,惯性测量单元,传感器融合,无知的卡尔曼滤波器
基于标记数据的抽象深度学习在计算机视觉,语音识别和自然语言处理方面取得了巨大成功。与未标记的数据相比,标记的数据只是海洋中的下降。人们如何有效地利用未标记的数据?研究重点是无监督和半监督的学习来解决此类问题。一些理论和经验研究证明,未标记的数据可以帮助提高对抗性攻击下的概括能力和鲁棒性。但是,关于鲁棒性和未标记数据之间关系的理论研究将其范围限制为玩具数据集。同时,自主驾驶中的视觉模型需要稳健性的良好改善,以确保安全性和安全性。本文提出了一个半监督的学习框架,用于自动驾驶汽车中的对象检测,从而通过未标记的数据提高了鲁棒性。首先,我们建立了一个基线,并通过学习无监督的对比学习方法-Momentum对比度(MOCO)。其次,我们提出了一种半监督的共同训练方法,以标记未标记的数据以进行重新培训,从而改善了对自主驾驶数据集的概括。第三,我们基于搜索算法使用的无监督边界框数据扩展(BBAG)方法,该方法使用增强构层学习来改善对象检测的鲁棒性来进行自动驾驶。我们介绍了一项关于Kitti数据集的实证研究,该数据集采用了多样化的讽刺攻击方法。我们提出的方法在白色框攻击(DPATCH和上下文补丁)和黑盒攻击(高斯噪音,雨水,雾,雾等)下实现了最新的概括和鲁棒性。我们提出的方法和经验研究表明,使用更未标记的数据有益于自主驾驶中感知系统的鲁棒性。
[dbscan] Ester等。:“一种基于密度的算法,用于在具有噪声的大空间数据库中发现簇”。:KDD,1996年。[DGCNN] Wang等。:“用于在点云上学习的动态图CNN”。in :( tog),2019年。[Kabsch] W. Kabsch:“解决两组向量的最佳旋转解决方案”。in:晶体物理学,衍射,理论和一般晶体学,1976年。[Hregnet] Lu等。:“ Hregnet:用于大规模室外激光点云注册的分层网络”。in:(iccv),2021。[Randla-net] Hu等。:“ randla-net:大规模点云的有效语义分割”。in:(cvpr),2020。[Stereokitti] Menze等。:“自动驾驶汽车的对象场景流”。in:(cvpr),2015年。[Lidarkitti] Geiger等。:“我们准备好进行自动驾驶了吗?Kitti Vision基准套件”。in:(cvpr),2012年。[Semkitti] Behley等。:“ Semantickitti:用于LIDAR序列的语义场景的数据集”。in:(ICCV),2019年。[FT3DS] Mayer等。:“一个大型数据集来训练卷积网络以差异,光流和场景流量估计”。in:(cvpr),2016年。[pointpwc-net] Wu等。:“ PointPWC-NET:(自我监督场景流估计)点云上的成本量”。在:(ECCV),2020年。[FlowStep3d] Kittenplon等。:“ FlowStep3d:自我监督场景流估计的模型展开”。in:(cvpr),2021。[RMS-FLOWNET] Battrawy等。:“ RMS-FLOWNET:大规模点云的高效且稳健的多尺度场景流程估计”。in:(icra),2022。[WM3D] Wang等。:“对于3D场景流网络重要的东西”。in:(ECCV),2022。[Bi-Pointflownet] W. Cheng和J. Hwan Ko:“基于点云的场景流估计的双向学习”。in:(ECCV),2022。[Chodosh等人]Chodosh等。:“重新评估激光雷达场景以进行自动驾驶”。in:arxiv,2023。[WSLR] Gojcic等人。:“严格3D场景流的弱监督学习”。in:(cvpr),2021。[ERC] Dong等。 :“利用震子场景流量估计的刚性约束”。 in:(cvpr),2022。[ERC] Dong等。:“利用震子场景流量估计的刚性约束”。in:(cvpr),2022。