Loading...
机构名称:
¥ 1.0

近年来,检测变形人脸图像的任务变得非常重要,以确保基于人脸图像的自动验证系统(例如自动边境控制门)的安全性。基于深度神经网络 (DNN) 的检测方法已被证明非常适合此目的。然而,它们在决策过程中并不透明,而且不清楚它们如何区分真实人脸图像和变形人脸图像。这对于旨在协助人类操作员的系统尤其重要,因为人类操作员应该能够理解其中的推理。在本文中,我们解决了这个问题,并提出了聚焦分层相关性传播 (FLRP)。该框架在精确的像素级别向人类检查员解释深度神经网络使用哪些图像区域来区分真实人脸图像和变形人脸图像。此外,我们提出了另一个框架来客观地分析我们方法的质量,并将 FLRP 与其他 DNN 可解释性方法进行比较。该评估框架基于移除检测到的伪影并分析这些变化对 DNN 决策的影响。特别是,如果 DNN 的决策不确定甚至不正确,与其他方法相比,FLRP 在突出显示可见伪影方面表现得更好。

聚焦 LRP:用于人脸变形攻击检测的可解释 AI

聚焦 LRP:用于人脸变形攻击检测的可解释 AIPDF文件第1页

聚焦 LRP:用于人脸变形攻击检测的可解释 AIPDF文件第2页

聚焦 LRP:用于人脸变形攻击检测的可解释 AIPDF文件第3页

聚焦 LRP:用于人脸变形攻击检测的可解释 AIPDF文件第4页

聚焦 LRP:用于人脸变形攻击检测的可解释 AIPDF文件第5页

相关文件推荐