抽象的轨迹预测基于其历史轨迹附近的动作。准确的轨迹预测(或简而言之)对于自动驾驶汽车(AVS)至关重要。现有的攻击通过直接操纵攻击者AV的历史轨迹来损害受害者AV的预测模型,该攻击者的历史轨迹有限。本文首次探讨了一种间接攻击方法,该方法通过对受害者AV的感知模块的攻击引起预测错误。尽管已经证明,通过将一些对象放置在战略位置,对基于激光雷达的感知的物理可实现的攻击是可能的,但是从广阔的搜索空间中找到一个对象位置,以便为了在不同的受害者AV速度下对预测进行有效的预测,这仍然是一个开放的挑战。通过分析,我们观察到一个预测模型容易出现在场景中的一个点上的攻击。顺便说一句,我们提出了一个新颖的两阶段攻击框架来实现单点攻击。预测侧攻击的第一阶段有效地识别出在基于对象的攻击下对概念的检测结果的分布,这是对预测模型的状态扰动,这些模型有效且对速度不敏感。在匹配的第二阶段,我们将可行的对象位置与发现的状态扰动匹配。我们使用公共自主驾驶数据集进行评估表明,我们的攻击率最高63%,受害者AV的各种危险响应。我们攻击的有效性也在真实的测试台车上策划。据我们所知,这项研究是从基于激光雷达的感知到自主驾驶预测的首次安全分析,从而导致对预测的现实攻击。 为了抵消拟议的攻击,讨论了潜在的防御措施。据我们所知,这项研究是从基于激光雷达的感知到自主驾驶预测的首次安全分析,从而导致对预测的现实攻击。为了抵消拟议的攻击,讨论了潜在的防御措施。
摘要:在自主驾驶技术不断发展的景观中,光检测和范围(LIDAR)传感器已成为增强环境感知的关键仪器。他们可以在车辆周围提供精确的,高分辨率的实时3D表示,以及在弱光条件下进行远程测量的能力。但是,这些优势是以传感器生成的大量数据为代价的,导致了传输,处理和存储操作的几个挑战,目前可以通过对点云中使用数据压缩技术来减轻这些挑战。本文介绍了用于压缩汽车LIDAR传感器的点云数据的现有方法的调查。它提出了一种全面的分类法,将这些方法分为四个主要群体,并在几个重要指标中进行比较和讨论。
在太空着陆操作期间,准确估计航天器的相对姿态对于确保安全成功着陆至关重要。本文提出了一种基于 3D 光检测和测距 (LiDAR) 的 AI 相对导航架构解决方案,用于自主太空着陆。所提出的架构基于混合深度循环卷积神经网络 (DR-CNN),将卷积神经网络 (CNN) 与基于长短期记忆 (LSTM) 网络的循环神经网络 (RNN) 相结合。获取的 3D LiDAR 数据被转换为多投影图像,并将深度和其他多投影图像输入 DRCNN。该架构的 CNN 模块可以有效地表示特征,而 RNN 模块作为 LSTM,可提供鲁棒的导航运动估计。我们考虑、模拟和实验了各种着陆场景,以评估所提出架构的效率。首先使用 PANGU(行星和小行星自然场景生成实用程序)软件创建基于 LiDAR 的图像数据(范围、坡度和海拔),然后使用这些数据对所提出的解决方案进行评估。建议使用 Gazebo 软件中的仪表化空中机器人进行测试,以模拟在合成但具有代表性的月球地形(3D 数字高程模型)上着陆的场景。最后,使用配备 Velodyne VLP16 3D LiDAR 传感器的真实飞行无人机进行真实实验,以在设计的缩小版月球着陆表面上着陆时生成真实的 3D 场景点云。所有获得的测试结果表明,所提出的架构能够通过良好合理的计算提供良好的 6 自由度 (DoF) 姿势精度。
摘要:基于激光雷达的3D对象检测和定位是自动导航系统的关键组成部分,包括自动驾驶汽车和移动机器人。大多数基于LIDAR的3D对象检测和定位方法主要使用LIDAR点云中的几何或结构特征抽象。但是,由于不利的天气条件或高度散射培养基的存在,这些方法可能会因环境噪声而易受环境噪声。在这项工作中,我们提出了一个强度感知的体素编码器,用于鲁棒3D对象检测。提出的体素编码器生成了一个强度直方图,该强度直方图描述了体素内点强度的分布,并用于增强体素特征集。我们将此强度感知的编码器集成到有效的单级体素检测器中,以进行3D对象检测。使用Kitti数据集获得的实验结果表明,我们的方法相对于3D检测中的CAR对象的最新方法,从鸟类的视图和行人和环体对象获得了可比的结果。此外,我们的模型可以在推理期间达到40.7 fps的检测率,该检测率高于最新方法的检测率,并产生较低的计算成本。
近年来,LIDAR(光检测和范围)技术与自动驾驶电动汽车(AEV)的整合引起了极大的关注,这标志着朝着实现更安全,更有效的运输系统的关键步骤。LIDAR传感器具有提供精确和实时三维环境感知的无与伦比的能力,具有增强AEV的自主性和可靠性的巨大承诺。然而,在该领域迅速发展的研究中,确保居住者和行人的安全仍然是一个关键的关注,需要一丝不苟的关注。现有文献广泛地讨论了与AEVS中的LiDAR集成相关的技术方面和性能指标,但在解决有效缓解潜在风险所需的细微差别安全含义和主动措施方面存在显着差距。本文旨在通过提出一个综合框架来弥合这一差距,该框架优先考虑LIDAR技术将其整合到AEV中。
对自己姿势的抽象知识是所有移动机器人应用程序的关键。因此,姿势估计是移动机器人核心功能的一部分。在过去的二十年中,LiDAR扫描仪已成为机器人定位和地图的标准传感器。本文旨在概述基于激光雷达的全球范围的最新进展和进步。我们首先提出问题并探索应用程序范围。然后,我们对方法论进行了综述,包括诸如地图,描述符的近期主题和跨机器人本地化等几个主题的最新进步。本文的内容是在三个主题下组织的。第一个主题涉及全球地方的结合和本地姿势估计。第二个主题是将单次测量升级到顺序全局定位的顺序测量值。最后,第三个主题侧重于将单机器人全局本地化扩展到多机器人系统中的跨机器人本地化。我们通过讨论开放式挑剔和有前途的全球liDar局部局限性的有希望的指示来结束调查。据我们最大的知识,这是第一个compre-
摘要在精确导航方面的最新进展已广泛利用全球导航卫星系统(GNSS)和惯性导航系统(INS)的集成,尤其是在智能车辆的领域。然而,这种导航系统的功效被非光(NLOS)信号的反射和多径中断所损害。基于积极的感知传感器以其精确的3D测量而闻名的基于主动感知的传感器的光检测和范围(LIDAR)的探测器在增强导航系统方面已经变得越来越普遍。尽管如此,与GNSS/INS系统的激光雷达进气量同化列出了重大挑战。应对这些挑战,这项研究引入了两相传感器融合(TPSF)方法,该方法通过双阶段传感器融合过程协同结合了GNSS定位,激光镜和IMU预融合。初始阶段采用扩展的Kalman滤波器(EKF)与IMU机械化合并GNSS解决方案,从而促进了IMU偏见和系统初始化的估计。随后,第二阶段将扫描到映射激光雷达的进程与IMU机械化相结合,以支持连续的LiDAR因子估计。然后将因子图优化(FGO)用于liDar因子,IMU预融合和GNSS解决方案的全面融合。通过对城市化开源数据集的苛刻轨迹进行严格的测试来证实所提出的方法的功效,与最先进的算法相比,该系统表明性能的增强,可实现1.269米的翻译标准偏差(STD)。
关键词:点云,激光雷达,无人驾驶飞机,TLS,建筑信息建模,数据集成摘要在建筑构建和管理中使用建筑信息建模(BIM)的使用变得越来越普遍。尽管如此,已经存在的建筑物的BIM模型的产生仍然是需要大量人为努力的操作。几何可靠和完整的BIM模型的生成需要所有建筑部件的几何信息。强烈建议使用独特的采集工具获取此类信息,因此,强烈建议使用不同的采集工具和平台收购数据,以获取对建筑物的几何完整的3D描述。这项工作介绍了将获得与陆地激光扫描(TLS),无人机(无人驾驶航空车辆)激光雷达(光检测和范围)和智能手机与LIDAR相结合的程序,显示了两种案例研究的结果,两座案例研究,在Olsztyn的Olsztyn校园内的两座建筑物。最后,在两个案例研究中都使用Blender软件成功生成了BIM模型。
摘要 - 对象检测是自动驾驶汽车和高级驾驶员辅助系统(ADA)的重要感知任务。虽然已经对相机图像中的对象检测进行了广泛的研究,但通过光检测和范围(LIDAR)数据来解决此任务,这是由于其固有的稀疏性带来了独特的挑战。这项研究引入了一种基于激光雷达的对象检测的开创性方法,其中Lidar Point Cloud数据巧妙地转换为伪RGB图像格式,随后将最初用于基于相机的对象检测设计的Yolov8网络。在Kitti数据集中受过训练和严格评估,我们的方法表现出出色的性能,达到了令人印象深刻的平均平均精度(MAP)超过86%。该模型还在Tihan IITH iith自主导航数据集(TIAND)的某个点云上进行了测试。这个了不起的结果强调了拟议方法在利用LiDAR数据以进行健壮对象检测时的效率,从而有助于在自主驾驶和ADAS应用中提高感知能力。索引项 - Yolov8,点云,BEV,LIDAR,对象检测,ADAS
最近基于激光雷达的 3D 物体检测 (3DOD) 方法显示出良好的效果,但它们通常不能很好地推广到源(或训练)数据分布之外的目标域。为了减少这种领域差距,从而使 3DOD 模型更具泛化能力,我们引入了一种新颖的无监督领域自适应 (UDA) 方法,称为 CMDA,它 (i) 利用来自图像模态(即相机图像)的视觉语义线索作为有效的语义桥梁,以缩小跨模态鸟瞰图 (BEV) 表示中的领域差距。此外,(ii) 我们还引入了一种基于自训练的学习策略,其中模型经过对抗性训练以生成领域不变特征,这会破坏对特征实例是来自源域还是看不见的目标域的区分。总的来说,我们的 CMDA 框架指导 3DOD 模型为新颖的数据分布生成高度信息丰富且领域自适应的特征。在我们对 nuScenes、Waymo 和 KITTI 等大规模基准进行的大量实验中,上述内容为 UDA 任务提供了显著的性能提升,实现了最先进的性能。