包括安全性[63],生物识别技术[38]和刑事侵犯[45],在许多情况下表现优于人类[12,48,61]。尽管这种技术的积极方面,但FR系统严重威胁了数字世界中的个人安全和隐私,因为它们有可能使大规模监视能力[1,67]。进行审查,政府和私人实体可以使用FR系统来通过刮擦Twitter,LinkedIn和Facebook等社交媒体资料的面部来跟踪用户关系和活动[18,20]。这些实体通常使用特定的FR系统,其规格是公众未知的(黑匣子模型)。因此,迫切需要采取一种有效的方法来保护面部隐私免受这种未知的FR系统的影响。理想的面部隐私保护算法必须在自然和隐私范围之间取得正确的平衡[70,77]。在这种情况下,“自然性”被定义为没有人类观察者很容易掌握的任何噪声伪影和人类认识的身份。“隐私保护”是指受保护图像必须能够欺骗黑盒恶意FR系统的事实。换句话说,被指定的图像必须与给定的面部图像非常相似,并且对于人类观察者而言是无伪影的,而同时欺骗了一个未知的自动化FR系统。由于产生自然主义面孔的失败会严重影响在社交媒体平台上的用户体验,因此它是采用隐私增强算法的必要预先条件。1)[22,25,39,72]。最近的作品利用对抗性攻击[57]通过覆盖原始面部图像[6,53,74]上的噪声约束(有限的)广泛扰动来掩盖用户身份。由于通常在图像空间中优化了对抗示例,因此通常很难同时实现自然性和隐私[70]。与基于噪声的方法不同,不受限制的对抗示例并未因图像空间中扰动的大小而影响,并且在对敌方有效的同时,对人类观察者来说表现出更好的感知现实主义[3,55,68,76]。已经做出了几项努力,以生成误导FR系统的不受限制的对抗示例(请参阅Tab。在其中,基于对抗化妆的方法[22,72]随着
主要关键词