随着人脸识别系统 (FRS) 的部署,人们开始担心这些系统容易受到各种攻击,包括变形攻击。变形人脸攻击涉及两张不同的人脸图像,以便通过变形过程获得一个与两个贡献数据主体足够相似的最终攻击图像。可以通过视觉(由人类专家)和商业 FRS 成功验证所获得的变形图像与两个主体的相似性。除非此类攻击能够被检测到并减轻,否则人脸变形攻击会对电子护照签发流程和边境管制等应用构成严重的安全风险。在这项工作中,我们提出了一种新方法,使用新设计的去噪框架来可靠地检测变形人脸攻击。为此,我们设计并引入了一种新的深度多尺度上下文聚合网络 (MS-CAN) 来获取去噪图像,然后将其用于确定图像是否变形。在三个不同的变形人脸图像数据集上进行了广泛的实验。还使用 ISO-IEC 30107-3 评估指标对所提出方法的变形攻击检测 (MAD) 性能进行了基准测试,并与 14 种不同的最新技术进行了比较。根据获得的定量结果,所提出的方法在所有三个数据集以及跨数据集实验中都表现出最佳性能。
○攻击者知道目标是一个控制系统,因此量身定制攻击策略,目的是损害控制下的身体系统○尽管物理攻击已经闻名,但现在的网络攻击已经越来越多地被剥削,因为它们便宜,因为它们的范围很长,它们的范围很长,并且很容易复制和协调,但实际上没有攻击,
广泛应用于自主驾驶中的基于深度学习的单眼深度估计(MDE)很容易受到对抗性攻击的影响。先前针对MDE模型的物理攻击依赖于2D广泛的补丁,因此它们仅影响MDE地图中的一个小型局部区域,但在各种观点下都失败了。为了解决这些限制,我们提出了3D深度傻瓜(3d 2傻瓜),这是对MDE模型的第一个基于3D纹理的对抗性攻击。3d 2傻瓜被专门优化,以生成3D对抗纹理对型号的车辆类型,并在恶劣天气条件(例如雨水和雾)中具有改善的鲁棒性。实验结果验证了我们3d 2傻瓜在各种情况下的出色性能,包括车辆,MDE Mod-els,天气状况和观点。现实世界中使用打印3D纹理的实验实验进一步表明,我们的3d 2傻瓜可能会导致超过10米的MDE误差。该代码可在https://github.com/gandolfczjh/3d2fool上找到。
在这项研究中,我们介绍了第一个有关人类野生动物冲突(HWC)的全面数据集以及由于马来西亚半岛的动物袭击而引起的相关人类伤亡,涵盖了HWC事件的2011 - 2018年期间,人类造成的2008- 2019年。这些数据集对于评估当前政策和各个机构和机构之间的合作努力的有效性是无价的。他们为增强HWC管理,野生动植物保护和降低该地区野生动植物袭击的伤亡风险提供了关键的基础。材料和方法进行了回顾性进行了回顾性,并从2011年至2018年收集了有关马来西亚半岛野生动植物和国家公园(DWNP)的HWC病例(DWNP)(本地称为Jabatan Perlindungan Hidungan Hidupan Hidupan Liar Liar Liar Dan Taman Taman Negara:Perhilitan)。这些HWC统计数据的一部分先前出现在Perhilitan年度报告(2011,2012,2013,2013,2015,2015,2016,2017和2018)8,12-17中,而其他(例如,2014年和2018年HWC中涉及HWC的物种的详细信息以及由于2008年至2019年的野生动物袭击而引起的伤亡人数)仅在这项研究中提供了。然后将这些原始数据处理,分析并将其列为表和条形图。结果从2011年到2018年总共报告了54,224例HWC病例(表I和图2)。这个数字在2011年(8,031)中最高,而最低的数字在2012年(5,602)记录。总体而言,报告的HWC病例显示从2012年到2018年的模式越来越高(5,602至7,967例,请参见图2)。
摘要 — 单独增强单个深度学习模型的鲁棒性只能提供有限的安全保障,尤其是在面对对抗性示例时。在本文中,我们提出了 DeSVig,这是一个去中心化的 Swift Vigilance 框架,用于识别工业人工智能系统 (IAIS) 中的对抗性攻击,使 IAIS 能够在几秒钟内纠正错误。DeSVig 高度去中心化,提高了识别异常输入的有效性。我们尝试使用特殊指定的移动边缘计算和生成对抗网络 (GAN) 来克服由行业动态引起的超低延迟挑战。我们工作最重要的优势是它可以显着降低被对抗性示例欺骗的失败风险,这对于安全优先和延迟敏感的环境至关重要。在我们的实验中,工业电子元件的对抗样本由几种经典的攻击模型生成。实验结果表明,DeSVig 比一些最先进的防御方法更强大、更高效、更具可扩展性。
这项工作是在Ferheen Ayaz在格拉斯哥大学任职时完成的。作者的联系信息:伊德里斯·扎卡里亚(Idris Zakariyya),格拉斯哥大学,格拉斯哥,英国,idris.zakariyya@glasgow.ac.ac.uk; Ferheen Ayaz,城市,伦敦大学,伦敦,英国,ferheen.ayaz@city.ac.uk; Mounia Kharbouche-Harrari,法国Stmicroelectronics,Mounia.kharbouche-harrari@st.com;杰里米·辛格(Jeremy Singer),格拉斯哥大学,英国格拉斯哥,jeremy.singer@glasgow.ac.uk; Sye Loong Keoh,格拉斯哥大学,英国格拉斯哥,syeloong.keoh@ glasgow.ac.uk; Danilo Pau,意大利Stmicroelectronics,danilo.pau@st.com;何塞·卡诺(JoséCano),格拉斯哥大学,英国格拉斯哥,josecano.reyes@glasgow.ac.uk。
大脑计算机界面(BCIS)是传统上用于医学的系统,旨在与大脑相互作用以记录或刺激神经元。尽管有好处,但文献表明,专注于神经刺激的侵入性BCI当前的脆弱性使攻击者能够控制。在这种情况下,神经网络攻击成为能够通过进行神经过度刺激或抑制来破坏自发神经活动的威胁。先前的工作在小型模拟中验证了这些攻击,其神经元数量减少,缺乏现实世界中的复杂性。Thus, this work tackles this limitation by analyzing the impact of two existing neural attacks, Neuronal Flooding (FLO) and Neuronal Jamming (JAM), on a complex neuronal topology of the primary visual cortex of mice consisting of approximately 230,000 neurons, tested on three realistic visual stimuli: flash e ff ect, movie, and drifting gratings.在每个刺激的三个相关事件中评估了每次攻击,还测试了攻击25%和50%神经元的影响。根据尖峰和偏移百分比的数量,结果表明,攻击对电影产生了最大的影响,而黑暗和固定事件是最强大的。尽管两种攻击都可以显着发作神经活动,但果酱通常更具破坏性,产生更长的时间延迟,并且患病率更高。最后,果酱不需要改变许多神经元以显着发神经活动,而FLO的影响随着攻击的神经元数量而增加。
“对AI系统的对抗性攻击可以采取微小的,几乎是看不见的调整来输入图像,这可以将模型引导到攻击者想要的结果的微妙修改。“这样的脆弱性使恶意行为者能够以真实产出为幌子以欺骗性或有害内容泛滥数字渠道,从而对AI驱动技术的信任和可靠性构成直接威胁。”
hal是一个多学科的开放访问档案,用于存款和传播科学研究文件,无论它们是否已发表。这些文件可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
鉴于其在诸如Crystals-Kyber之类的现代加密系统中不可或缺的作用,Fujisaki Okamoto(FO)变换将很快成为我们安全通信基础架构的中心。围绕FO变换的持久辩论是当解次失败时是否使用显式或隐式拒绝。目前,在晶体 - 凯伯(Crystals-kyber)中实施的隐性拒绝受到了一系列论点的支持。因此,了解其在不同攻击者模型中的安全含义至关重要。在这项工作中,我们通过新颖的镜头来研究隐式拒绝,即从Kleptography的角度研究。具体而言,我们考虑了一个攻击者模型,在该模型中,攻击者可以颠覆用户的代码以损害安全性,同时无法检测到。在这种情况下,我们提出了三项攻击,这些攻击大大降低了FO转换的安全水平,并具有隐式拒绝。
