a 武汉大学遥感信息工程学院,武汉 430079,中国 b 中山大学地理空间信息工程与科学学院,珠海 519082,中国 * 通讯作者。1 两位作者对本文稿的贡献相同。电子邮件:zhangyj@whu.edu.cn (Y. Zhang)、zousiyuan3s@whu.edu.cn (S. Zou)、liuxy0319@whu.edu.cn (X. Liu)、huangx358@mail.sysu.edu.cn (X. Huang)、yi.wan@whu.edu.cn (Y. Wan)、yaoyongxiang@whu.edu.cn (Y. Yao)
a 武汉大学遥感信息工程学院,武汉 430079,中国 b 中山大学地理空间信息工程与科学学院,珠海 519082,中国 * 通讯作者。1 两位作者对本文稿的贡献相同。电子邮件:zhangyj@whu.edu.cn (Y. Zhang)、zousiyuan3s@whu.edu.cn (S. Zou)、liuxy0319@whu.edu.cn (X. Liu)、huangx358@mail.sysu.edu.cn (X. Huang)、yi.wan@whu.edu.cn (Y. Wan)、yaoyongxiang@whu.edu.cn (Y. Yao)
a 武汉大学遥感信息工程学院,武汉 430079,中国 b 中山大学地理空间信息工程与科学学院,珠海 519082,中国 * 通讯作者。1 两位作者对本文稿的贡献相同。电子邮件:zhangyj@whu.edu.cn (Y. Zhang)、zousiyuan3s@whu.edu.cn (S. Zou)、liuxy0319@whu.edu.cn (X. Liu)、huangx358@mail.sysu.edu.cn (X. Huang)、yi.wan@whu.edu.cn (Y. Wan)、yaoyongxiang@whu.edu.cn (Y. Yao)
a 武汉大学遥感信息工程学院,武汉 430079,中国 b 中山大学地理空间信息工程与科学学院,珠海 519082,中国 * 通讯作者。1 两位作者对本文稿的贡献相同。电子邮件:zhangyj@whu.edu.cn (Y. Zhang)、zousiyuan3s@whu.edu.cn (S. Zou)、liuxy0319@whu.edu.cn (X. Liu)、huangx358@mail.sysu.edu.cn (X. Huang)、yi.wan@whu.edu.cn (Y. Wan)、yaoyongxiang@whu.edu.cn (Y. Yao)
a 武汉大学遥感信息工程学院,武汉 430079,中国 b 中山大学地理空间工程与科学学院,珠海 519082,中国 * 通讯作者。1 两位作者对本文贡献相同。电子邮件:zhangyj@whu.edu.cn (Y. Zhang)、zousiyuan3s@whu.edu.cn (S. Zou)、liuxy0319@whu.edu.cn (X. Liu)、huangx358@mail.sysu.edu.cn (X. Huang)、yi.wan@whu.edu.cn (Y. Wan)、yaoyongxiang@whu.edu.cn (Y. Yao)
最先进的基于深度学习的立体匹配方法将视差估计视为一个回归问题,其中损失函数直接定义在真实视差及其估计视差上。然而,视差只是由成本量建模的匹配过程的副产品,而间接学习由视差回归驱动的成本量容易出现过度拟合,因为成本量受到约束。在本文中,我们提出直接向成本量添加约束,方法是用在真实视差处达到峰值的单峰分布过滤成本量。此外,估计每个像素的单峰分布的方差,以明确模拟不同环境下的匹配不确定性。所提出的架构在 Scene Flow 和两个 KITTI 立体基准上实现了最先进的性能。具体来说,我们的方法在 KITTI 2012 评估中排名第一,在 KITTI 2015 评估中排名第四(记录于 2019.8.20)。AcfNet 的代码可以在以下位置找到:https://github.com/youmi-zym/AcfNet。