本作品根据 Creative Commons Attribution 4.0 许可证授权。本文由 Technical Disclosure Commons 免费提供给您,供您开放访问。Technical Disclosure Commons 的授权管理员已接受将其纳入防御性出版物系列。
摘要 — 由于低成本惯性传感器误差积累,行人航位推算是一项具有挑战性的任务。最近的研究表明,深度学习方法在处理这一问题上可以取得令人印象深刻的效果。在本信中,我们提出了一种基于深度学习的速度估计方法的惯性里程计。利用基于 Res2Net 模块和两个卷积块注意模块的深度神经网络来恢复水平速度矢量和来自智能手机的原始惯性数据之间的潜在联系。我们的网络仅使用公共惯性里程计数据集 (RoNIN) 数据的 50% 进行训练。然后,在 RoNIN 测试数据集和另一个公共惯性里程计数据集 (OXIOD) 上进行验证。与传统的基于步长和航向系统的算法相比,我们的方法将绝对平移误差 (ATE) 降低了 76%-86%。此外,与最先进的深度学习方法(RoNIN)相比,我们的方法将其ATE提高了6%-31.4%。
摘要 — 为了实现长期自主导航中稳健、无漂移的位姿估计,我们在本文中提出了一种将全局位置信息与视觉和惯性测量融合在一起的紧耦合非线性优化估计器。与以前的松散耦合的工作不同,使用紧耦合方法可以利用所有测量之间的相关性。通过最小化包括视觉重新投影误差、相对惯性误差和全局位置残差的成本函数来估计最新系统状态的滑动窗口。我们使用 IMU 预积分来计算惯性残差,并利用该算法的结果有效地计算全局位置残差。实验结果表明,所提出的方法实现了准确且全局一致的估计,而优化计算成本的增加可以忽略不计。我们的方法始终优于松耦合的融合方法。与室外无人机 (UAV) 飞行中的松散耦合方法相比,平均位置误差减少了 50%,其中全局位置信息由嘈杂的 GPS 测量提供。据我们所知,这是首次在基于优化的视觉惯性里程计算法中紧密融合全局位置测量,利用 IMU 预积分方法定义全局位置因子。
1.1 问题陈述. . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . . ................................................................................................................................................................................. 3 1.6 贡献.................................................................................................................................................................................................................................................................................................... 4 1.7 论文概述....................................................................................................................................................................................................... 4 1.7 论文概述....................................................................................................................................................................................................................... 4 . . . . . . . 4