来自图像的深度估计是具有广泛应用的计算机视觉中的一个长期问题。对于基于视觉的自动驾驶系统,感知深度是理解道路对象和建模3D环境图的相关性的不可或缺的模块。由于深度神经网络用于求解各种视觉概率,因此基于CNN的方法[2-5,13,39 - 42,44,44,46,48,52]主导了各种深度基准。根据输入格式,它们主要将其分为多视图深度估计[3,13,23,26,44,45,51,53]和单视深度估计[14 - 16,19,37,38]。多视图方法估计深度的假设,即给定的深度,相机校准和摄像头姿势,这些像素应相似。他们依靠表现几何形状来三角形高质量深度。但是,多视图方法的准确性和鲁棒性在很大程度上依赖于相机的几何配置以及视图之间匹配的对应关系。首先,需要足够翻译相机以进行三角度。在自主驾驶的情况下,汽车可能会停在交通信号灯处或不移动而不移动,这会导致故障三角剖分。此外,多视图方法遭受动态对象和无动电区域的影响,它们在自动驱动方案中无处不在。另一个问题是对移动车辆的施加优化。在存在的大满贯方法中不可避免地噪声,更不用说具有挑战性和可取的情况了。具体来说,我们提出了一个两个分支网络,即例如,一辆机器人或自动驾驶汽车可以在不重新校准的情况下部署多年,原因是嘈杂的姿势。相比之下,作为单视图方法[14 - 16,19,37,38]依赖于对场景的语义理解和透视投影提示,它们对无纹理区域,动态对象,而不是依赖相机姿势更为易用。但是,由于规模歧义,其性能仍然远非多视图方法。在这里,我们倾向于考虑是否可以很好地结合两种方法的好处,以实现自主驾驶场景中的稳健和准确的单眼视频深度估计。尽管已经在先前的工作中探索了基于融合的系统[1,9],但他们都假定了理想的相机姿势。结果是融合系统的性能甚至比单视深度估计的噪声姿势还差。为了解决这个问题,我们提出了一个新型的自适应融合网络,以利用多视图和单视图方法的优势,并减轻其缺点,以保持高度的精度,并在噪声姿势下提高系统的影响力。一个靶向单眼深度提示,而另一个则利用多视图几何形状。两个分支都预测了深度图和置信图。补充语义提示和边缘细节在多视图分支的成本汇总中丢失了
从单个视图中恢复3D场景几何形状是计算机视觉中的基本问题。虽然经典的深度估计方法仅推断出2.5D场景表示为图像平面,但最新的基于辐射范围的aperach是重建完整的3D代表。然而,这些方法仍然在被占地的区域困难,因为没有视觉观察的几何形状需要(i)周围的语义知识,以及(ii)关于空间上下文的推理。我们提出了Kyn,这是一种单视场景重建的新方法,其原因是语义和空间上下文来预测每个点的密度。我们引入了一个视觉模块模块,以使用细粒度的语义信息丰富点特征。我们通过语言引导的空间注意机制在整个场景中汇总了点表示,以产生意识到3D语义环境的每点密度预测。我们表明,与预测每个3D点的密度相比,Kyn改善了3D形状的恢复。我们在Kitti-360上实现了最新的场景和对象重建结果,并且与先前的工作相比,零弹性概括的改进。项目页面:https://ruili3.github.io/kyn。
为了进一步缓解从单视输入中恢复3D形状的歧义,我们遵循Yu等人。[84]以实现单眼,正常和分割提示,以促进训练过程。但是,由于这些图像在3D-Front [19]数据集中不可用,因此我们使用场景的3D扫描,对象的3D CAD模型以及摄像机在数据集中提供的内在和外在的pa-rameters进行调整。pix3d [69]数据集提供实例分割,但缺乏深度和正常图像。由于渲染是不可能的,因此我们将估计的深度和正常地图用作最先进的估计器的伪基真实[17]。请注意,在训练阶段的过程中,深度,正常和分割信息仅用于指导模型的学习过程,而在推理阶段则无需。这种调查表明,我们的模型仍然灵活且适用于各种情况。
摘要:机载合成孔径雷达(Airborne Synthetic Aperture Radar,Airborne SAR)利用机载定位定向系统(POS)获取的飞行器飞行参数以及飞行器与目标的相对位置信息,对重点目标及区域进行精确定位。飞行过程中,飞行器会因为大气湍流等原因偏离理想飞行路径,导致计算结果与实际目标位置出现偏差。为了提高目标定位精度,需要研究飞行器运动误差对目标定位误差的影响。本文从线性距离-多普勒算法(RDA)的角度探讨了单视机载SAR的定位精度,并在多视机载SAR定位模型的基础上,推导了多视机载SAR定位误差传递模型。在此基础上,详细分析了影响两种定位方法定位精度的主要因素,定量揭示了多视角机载SAR定位方法较单视角机载SAR定位方法提高目标定位精度的机理,解决了多视角机载SAR优化定位的航向规划问题。研究成果可为定位误差影响因素分析及机载SAR定位误差校正提供理论支撑。