图3。径向极化的QD激光是从杂种W TM -SLR纳米腔实现的。(a)在线性尺度上针对不同输入泵脉冲能的正常检测角度收集的发射光谱。插图:输出发射强度是对数字尺度上输入泵脉冲能量的函数。(b)激光发射光束的远场图案。白色箭头显示输出激光模式的极化方向。(c)在选定的极化方向下的光束轮廓。白色箭头在检测器前显示线性偏振器的偏振方向。(d)在p偏振光下的小波vector上模拟带结构。黑色圆圈指示k x = 0的w tm -slr模式。红色圆圈表示在非零K x处的W TM -SLR边带。(E)在W TM -SLR边带处模拟电场(| E | 2,单位为V 2 /M 2)。在模拟中将入射光E 0的电场设置为1 V/m。
摘要 - 由于频繁的车轮滑动,变化的车轮半径,并且车辆的3D运动不适合集成车轮速度测量法的2D性质,因此对越野车的状态估算中不常数使用。本文试图通过提出新颖的3D前纳入歧管上的3D前整合来克服这些问题。我们的方法添加 - 在线估计轮式滑移,半径和基线,以提高准确性和鲁棒性。此外,由于预先整合,可以使用车轮滑动和内在的一阶更新将许多测量结果汇总到单个运动约束中,从而可以在基于优化的状态估计框架中有效使用。虽然我们的方法可以与因子图框架中的任何传感器一起使用,但我们验证了其在蒙特卡洛模拟中视觉 - 轮键盘系统(VWO)中参数的有效性和可观察性。此外,我们说明了它的准确性,并证明它可用于在VWO和Visual惯性和视觉惯性轮式(VIWO)系统中在现实世界中的越野场景中克服其他传感器故障。
自动移动机器人在交付,制造,耕作,采矿和太空探索的自动化中起着重要作用。尽管这些机器人在传统上依靠其与GNSS/INS系统的本地化[1],但在室内,室内,屋顶或茂密植被的区域,在发生信号损失的情况下,会出现挑战。为了克服这一限制,已经提出了同时定位和映射(SLAM)[2]方法。猛击通常将其分为光检测和范围(LIDAR)大满贯和视觉猛击,具体取决于所用的主要传感器。LIDAR SLAM在涉及敏捷运动和复杂结构化环境的场景中具有很高的精度和鲁棒性,这是由于其能力直接使用多个射线直接测量对象和传感器之间的距离[3]。但是,由于LiDar SLAM通过匹配每种结构扫描来执行定位,LIDAR的大满贯可以在无结构的场景中退化,例如隧道,庞大的平面和走廊[4]。另一方面,视觉猛击,利用RGB图像的纹理信息可以在无结构环境中起作用,因为它依赖基于纹理的特征,即使在缺乏明确的结构元素的场景中,也可以提取这些特征[5]。然而,视觉大满贯的规模估计有弱点,并且可以在照明条件下快速变化。为了解决LiDAR和Visual Slam的局限性,已经提出了各种LiDAR视觉大满贯方法,这些方法同时整合了LiDar和Visual Sensor的信息[6-8]。这些方法可以有效地处理结构和,因为这些方法大多数都依赖于松散耦合的方式(系统间融合)[6,7],这两个系统中的故障都会导致总体猛击失败。为了解决松散耦合方式的弱点,已经提出了紧密耦合的方法(功能间融合)[8]。
本作品根据 Creative Commons Attribution 4.0 许可证授权。本文由 Technical Disclosure Commons 免费提供给您,供您开放访问。Technical Disclosure Commons 的授权管理员已接受将其纳入防御性出版物系列。
2理论4 2.1 LIDAR。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 4 2.2探测仪。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 4 2.2.1视觉探测器。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 5 2.2.2直接稀疏探针。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 。 6 2.3光流。 。 。2理论4 2.1 LIDAR。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。4 2.2探测仪。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。4 2.2.1视觉探测器。。。。。。。。。。。。。。。。。。。。。。。。5 2.2.2直接稀疏探针。。。。。。。。。。。。。。。。。。。。6 2.3光流。。。。。。。。。。。。。。。。。。。。。。。。。。。。。。6 2.3.1光流估计的Lucas-Kanade方法。。。。。8 2.3.2卢卡斯·卡纳德(Lucas-Kanade)背后的假设。。。。。。。。。。。。。。10 2.4特征检测。。。。。。。。。。。。。。。。。。。。。。。。。。。。10 2.5仿射转化估计。。。。。。。。。。。。。。。。。。。11 2.5.1仿射转换矩阵定义。。。。。。。。。。。。。12 2.5.2翻译和旋转计算。。。。。。。。。。。12 2.6惯性测量单元。。。。。。。。。。。。。。。。。。。。。。。12
摘要:随着人工智能和嵌入式硬件开发的发展,对移动机器人的各种自主导航方法的利用变得越来越可行。因此,已经出现了对这些运动方法的鲁棒验证方法的需求。本文介绍了一种依靠计算机视觉的新颖地面真相定位收集方法。在这种方法中,摄像机被定位在上面,以通过计算机视觉技术来检测机器人的位置。与其他传感器的数据同步收集用于检索定位地面真相的图像。通过将摄像机派生的位置视为地面真理,可以进行比较分析以开发,分析和测试不同的机器人探视方法。除了在本文中提出地面真相收集方法外,我们还使用DNN比较使用来自不同传感器的数据作为输入进行探测。结果证明了我们的地面真相收集方法在评估和比较移动机器人的不同探光法方面的功效。这项研究通过提供可靠且多功能的方法来评估和比较探针技术,这对于开发和部署自主机器人系统至关重要,从而为移动机器人技术领域做出了贡献。
摘要:移动自主机器人需要准确的地图来实时导航和做出明智的决定。猛击(同时定位和映射)技术允许机器人在移动时构建地图。但是,在复杂或动态的环境中,SLAM可能具有挑战性。本研究提出了一个名为Scramble的移动自主机器人,该机器人根据两个传感器的数据融合使用SLAM:Rplidar A1M8 LIDAR和RGB摄像机。如何使用数据融合来提高映射,轨迹计划和移动自动机器人障碍物检测的准确性?在本文中,我们表明,视觉和深度数据的融合显着提高了映射,轨迹计划和移动自主机器人的障碍物检测的准确性。这项研究通过引入基于数据融合的SLAM方法来帮助自主机器人导航的发展。移动自主机器人用于各种应用程序,包括包装交付,清洁和检查。开发更健壮,更准确的SLAM算法对于在具有挑战性的环境中使用这些机器人至关重要。
定位病变是结肠镜检查的主要目标。3D感知技术可以通过恢复结肠的3D空间信息来提高病变局部局部的准确性。但是,现有方法集中于单个帧的局部深度估计,并忽略了结肠镜的精确全局定位,因此未能提供病变的准确3D位置。此短缺的根本原因是双重的:首先,现有方法将结肠深度和结肠镜构成估计为独立任务,或将其设计为并行子任务分支。其次,结肠环境中的光源与结肠镜一起移动,从而导致连续框架图像之间的亮度波动。为了解决这两个问题,我们提出了一个新型的基于深度学习的视觉探针框架Colvo,它可以使用两个关键组成部分不断地估算结肠深度和结肠镜姿势:深度和姿势估计的深度策略(DCDP)和轻型一致的校准机制(LCC)。dcdp对夫妇融合和损失函数的利用对夫妇深度和构图估计模式的限制确保了连续帧之间几何投影的无缝比对。同时,LCC通过重新校准相邻帧的光度值来解释亮度变化,从而增强了Colvo的鲁棒性。对COLVO在结肠探测基准上进行的全面评估揭示了其在深度和姿势估计的最新方法上的承受能力。我们还展示了两个有价值的应用:肠道立即定位和完整的3D重建。Colvo的代码可从https://github.com/xxx/xxx获得。
摘要 - 视觉进程(VO)在自主系统中起关键作用,主要挑战是相机图像中缺乏深度信息。本文介绍了OCC-VO,这是一个新颖的框架,该框架利用了深度学习的最新范围,将2D摄像机图像转换为3D语义占用,从而规定了传统的同时估计自我姿势和地标地点的需求。在此框架内,我们利用TPV形式将环绕摄像机的图像转换为3D语义占用。解决了这种转换所带来的挑战,我们专门为姿势估计和映射算法定制,该算法结合了语义标签滤波器,动态对象滤波器,最后利用Voxel Pfilter来维护一致的全局语义映射。对OCC3D-NUSCENES的评估不仅展示了成功率提高了20.6%,并且针对ORB-SLAM3的轨迹精度提高了29.6%,而且还强调了我们构建全面地图的能力。我们的实施是开源的,可在以下网址提供:https://github.com/ustclh/occ-vo。
摘要 - 进程和映射在自动驾驶汽车的导航中起关键作用。在本文中,我们仅使用雷达传感器来解决姿势估计和图创建的问题。我们专注于两种进程估计方法,然后是映射步骤。第一个是一种新的点ICP方法,它利用了3D雷达传感器提供的速度信息。第二个对样品数量较少的2D雷达是有利的,对于传感器被大动态障碍阻塞的场景特别有用。它利用恒定速度过滤器和测得的多普勒速度来估计车辆的自我运动。我们通过过滤步骤丰富了这一点,以提高所得地图中点的准确性。我们使用DELFT和NUSCENES数据集的视图将工作进行了测试,这些数据集涉及3D和2D雷达传感器。与现有替代方案相比,我们的发现以准确性为例,说明了我们的进程技术的状态性能。此外,我们证明,在针对相应的LIDAR图基准测试时,我们的地图过滤方法比原始未经过滤的图获得了更高的相似性率。