随着人脸识别系统 (FRS) 的部署,人们开始担心这些系统容易受到各种攻击,包括变形攻击。变形人脸攻击涉及两张不同的人脸图像,以便通过变形过程获得一个与两个贡献数据主体足够相似的最终攻击图像。可以通过视觉(由人类专家)和商业 FRS 成功验证所获得的变形图像与两个主体的相似性。除非此类攻击能够被检测到并减轻,否则人脸变形攻击会对电子护照签发流程和边境管制等应用构成严重的安全风险。在这项工作中,我们提出了一种新方法,使用新设计的去噪框架来可靠地检测变形人脸攻击。为此,我们设计并引入了一种新的深度多尺度上下文聚合网络 (MS-CAN) 来获取去噪图像,然后将其用于确定图像是否变形。在三个不同的变形人脸图像数据集上进行了广泛的实验。还使用 ISO-IEC 30107-3 评估指标对所提出方法的变形攻击检测 (MAD) 性能进行了基准测试,并与 14 种不同的最新技术进行了比较。根据获得的定量结果,所提出的方法在所有三个数据集以及跨数据集实验中都表现出最佳性能。
基于状态的签名(HBS)方案的标准化始于2018年和2019年的IETF RFC的出版物IETF RFCS的扩展Merkle签名方案(XMSS)和基于Leighton-Micali Hash的签名(LMS)的出版物[8],[8],[11]。2020年,美国国家标准技术研究所(NIST)发表了进一步推荐的参数[7]。德国联邦信息安全办公室(BSI)在自己的出版物中指定了这两种算法[5]。自从其标准化以来,已将状态HBS算法部署在多种产品中,从嵌入式设备到服务器[3],[6],[12]。由于其固有的状态,可以使用密钥对创建的签名数量有限,这也限制了应用程序的范围。实际上,它们最适合验证很少更改的数据的完整性和真实性,例如嵌入式设备的固件。然后进行验证过程,然后在安全的启动或固件更新过程中进行。在过去的工作中,研究界已经调查了此用例[9],[10],[15],[17]的硬件和软件优化,并且供应商带来了前进的产品[12]。
近年来,检测变形人脸图像的任务变得非常重要,以确保基于人脸图像的自动验证系统(例如自动边境控制门)的安全性。基于深度神经网络 (DNN) 的检测方法已被证明非常适合此目的。然而,它们在决策过程中并不透明,而且不清楚它们如何区分真实人脸图像和变形人脸图像。这对于旨在协助人类操作员的系统尤其重要,因为人类操作员应该能够理解其中的推理。在本文中,我们解决了这个问题,并提出了聚焦分层相关性传播 (FLRP)。该框架在精确的像素级别向人类检查员解释深度神经网络使用哪些图像区域来区分真实人脸图像和变形人脸图像。此外,我们提出了另一个框架来客观地分析我们方法的质量,并将 FLRP 与其他 DNN 可解释性方法进行比较。该评估框架基于移除检测到的伪影并分析这些变化对 DNN 决策的影响。特别是,如果 DNN 的决策不确定甚至不正确,与其他方法相比,FLRP 在突出显示可见伪影方面表现得更好。
摘要 — 单独增强单个深度学习模型的鲁棒性只能提供有限的安全保障,尤其是在面对对抗性示例时。在本文中,我们提出了 DeSVig,这是一个去中心化的 Swift Vigilance 框架,用于识别工业人工智能系统 (IAIS) 中的对抗性攻击,使 IAIS 能够在几秒钟内纠正错误。DeSVig 高度去中心化,提高了识别异常输入的有效性。我们尝试使用特殊指定的移动边缘计算和生成对抗网络 (GAN) 来克服由行业动态引起的超低延迟挑战。我们工作最重要的优势是它可以显着降低被对抗性示例欺骗的失败风险,这对于安全优先和延迟敏感的环境至关重要。在我们的实验中,工业电子元件的对抗样本由几种经典的攻击模型生成。实验结果表明,DeSVig 比一些最先进的防御方法更强大、更高效、更具可扩展性。
○攻击者知道目标是一个控制系统,因此量身定制攻击策略,目的是损害控制下的身体系统○尽管物理攻击已经闻名,但现在的网络攻击已经越来越多地被剥削,因为它们便宜,因为它们的范围很长,它们的范围很长,并且很容易复制和协调,但实际上没有攻击,
攻击树是对安全性决策,支持网络攻击的识别,文档和分析的流行方法。它们是许多系统工程框架的一部分,例如umlSec [1]和sysmlsec [2],并得到了工业工具(例如Isograph's Attacktree [3])的支持。攻击树(AT)是系统图的层次图,以绘制系统的潜在攻击方案,请参见图。1和2。该图顶部的根部对攻击者的目标进行了建模,该目标通过门进一步将其重新定义为子目标:AN和GATE表示,如果所有儿童攻击成功,则攻击成功;一个或门表示任何单个儿童舒服。树的叶子是基本的攻击步骤(BAS),它模型不可分割的动作,例如切线。
这项工作是在Ferheen Ayaz在格拉斯哥大学任职时完成的。作者的联系信息:伊德里斯·扎卡里亚(Idris Zakariyya),格拉斯哥大学,格拉斯哥,英国,idris.zakariyya@glasgow.ac.ac.uk; Ferheen Ayaz,城市,伦敦大学,伦敦,英国,ferheen.ayaz@city.ac.uk; Mounia Kharbouche-Harrari,法国Stmicroelectronics,Mounia.kharbouche-harrari@st.com;杰里米·辛格(Jeremy Singer),格拉斯哥大学,英国格拉斯哥,jeremy.singer@glasgow.ac.uk; Sye Loong Keoh,格拉斯哥大学,英国格拉斯哥,syeloong.keoh@ glasgow.ac.uk; Danilo Pau,意大利Stmicroelectronics,danilo.pau@st.com;何塞·卡诺(JoséCano),格拉斯哥大学,英国格拉斯哥,josecano.reyes@glasgow.ac.uk。
大脑计算机界面(BCIS)是传统上用于医学的系统,旨在与大脑相互作用以记录或刺激神经元。尽管有好处,但文献表明,专注于神经刺激的侵入性BCI当前的脆弱性使攻击者能够控制。在这种情况下,神经网络攻击成为能够通过进行神经过度刺激或抑制来破坏自发神经活动的威胁。先前的工作在小型模拟中验证了这些攻击,其神经元数量减少,缺乏现实世界中的复杂性。Thus, this work tackles this limitation by analyzing the impact of two existing neural attacks, Neuronal Flooding (FLO) and Neuronal Jamming (JAM), on a complex neuronal topology of the primary visual cortex of mice consisting of approximately 230,000 neurons, tested on three realistic visual stimuli: flash e ff ect, movie, and drifting gratings.在每个刺激的三个相关事件中评估了每次攻击,还测试了攻击25%和50%神经元的影响。根据尖峰和偏移百分比的数量,结果表明,攻击对电影产生了最大的影响,而黑暗和固定事件是最强大的。尽管两种攻击都可以显着发作神经活动,但果酱通常更具破坏性,产生更长的时间延迟,并且患病率更高。最后,果酱不需要改变许多神经元以显着发神经活动,而FLO的影响随着攻击的神经元数量而增加。
“对AI系统的对抗性攻击可以采取微小的,几乎是看不见的调整来输入图像,这可以将模型引导到攻击者想要的结果的微妙修改。“这样的脆弱性使恶意行为者能够以真实产出为幌子以欺骗性或有害内容泛滥数字渠道,从而对AI驱动技术的信任和可靠性构成直接威胁。”