摘要:在未来十年内,为了应对高度互联和数字化的世界所产生的大量信息,对自动化、智能数据处理和预处理的需求预计将会增加。在过去的几十年里,现代计算机网络、基础设施和数字设备的复杂性和互联性都在增长。保护这些资产的网络安全人员面临着越来越多的攻击面和不断改进的攻击模式。为了管理这一点,网络防御方法开始依赖于支持人类工作的自动化和(人工智能)。然而,机器学习 (ML) 和人工智能 (AI) 支持的方法不仅已集成到网络监控和端点安全产品中,而且几乎无处不在涉及持续监控、复杂或大量数据的任何应用中。智能 IDS、自动化网络防御、网络监控和监视以及安全软件开发和编排都是依赖 ML 和自动化的资产的例子。由于这些应用对社会的重要性,恶意行为者对这些应用非常感兴趣。此外,ML 和 AI 方法还用于数字助理、自动驾驶汽车、人脸识别应用等所使用的视听系统中。已经报道了针对视听系统 AI 的成功攻击媒介。这些攻击范围从需要很少的技术知识到劫持底层 AI 的复杂攻击。
在这项研究中,我们介绍了第一个有关人类野生动物冲突(HWC)的全面数据集以及由于马来西亚半岛的动物袭击而引起的相关人类伤亡,涵盖了HWC事件的2011 - 2018年期间,人类造成的2008- 2019年。这些数据集对于评估当前政策和各个机构和机构之间的合作努力的有效性是无价的。他们为增强HWC管理,野生动植物保护和降低该地区野生动植物袭击的伤亡风险提供了关键的基础。材料和方法进行了回顾性进行了回顾性,并从2011年至2018年收集了有关马来西亚半岛野生动植物和国家公园(DWNP)的HWC病例(DWNP)(本地称为Jabatan Perlindungan Hidungan Hidupan Hidupan Liar Liar Liar Dan Taman Taman Negara:Perhilitan)。这些HWC统计数据的一部分先前出现在Perhilitan年度报告(2011,2012,2013,2013,2015,2015,2016,2017和2018)8,12-17中,而其他(例如,2014年和2018年HWC中涉及HWC的物种的详细信息以及由于2008年至2019年的野生动物袭击而引起的伤亡人数)仅在这项研究中提供了。然后将这些原始数据处理,分析并将其列为表和条形图。结果从2011年到2018年总共报告了54,224例HWC病例(表I和图2)。这个数字在2011年(8,031)中最高,而最低的数字在2012年(5,602)记录。总体而言,报告的HWC病例显示从2012年到2018年的模式越来越高(5,602至7,967例,请参见图2)。
随着人脸识别系统 (FRS) 的部署,人们开始担心这些系统容易受到各种攻击,包括变形攻击。变形人脸攻击涉及两张不同的人脸图像,以便通过变形过程获得一个与两个贡献数据主体足够相似的最终攻击图像。可以通过视觉(由人类专家)和商业 FRS 成功验证所获得的变形图像与两个主体的相似性。除非此类攻击能够被检测到并减轻,否则人脸变形攻击会对电子护照签发流程和边境管制等应用构成严重的安全风险。在这项工作中,我们提出了一种新方法,使用新设计的去噪框架来可靠地检测变形人脸攻击。为此,我们设计并引入了一种新的深度多尺度上下文聚合网络 (MS-CAN) 来获取去噪图像,然后将其用于确定图像是否变形。在三个不同的变形人脸图像数据集上进行了广泛的实验。还使用 ISO-IEC 30107-3 评估指标对所提出方法的变形攻击检测 (MAD) 性能进行了基准测试,并与 14 种不同的最新技术进行了比较。根据获得的定量结果,所提出的方法在所有三个数据集以及跨数据集实验中都表现出最佳性能。
基于状态的签名(HBS)方案的标准化始于2018年和2019年的IETF RFC的出版物IETF RFCS的扩展Merkle签名方案(XMSS)和基于Leighton-Micali Hash的签名(LMS)的出版物[8],[8],[11]。2020年,美国国家标准技术研究所(NIST)发表了进一步推荐的参数[7]。德国联邦信息安全办公室(BSI)在自己的出版物中指定了这两种算法[5]。自从其标准化以来,已将状态HBS算法部署在多种产品中,从嵌入式设备到服务器[3],[6],[12]。由于其固有的状态,可以使用密钥对创建的签名数量有限,这也限制了应用程序的范围。实际上,它们最适合验证很少更改的数据的完整性和真实性,例如嵌入式设备的固件。然后进行验证过程,然后在安全的启动或固件更新过程中进行。在过去的工作中,研究界已经调查了此用例[9],[10],[15],[17]的硬件和软件优化,并且供应商带来了前进的产品[12]。
摘要 — 单独增强单个深度学习模型的鲁棒性只能提供有限的安全保障,尤其是在面对对抗性示例时。在本文中,我们提出了 DeSVig,这是一个去中心化的 Swift Vigilance 框架,用于识别工业人工智能系统 (IAIS) 中的对抗性攻击,使 IAIS 能够在几秒钟内纠正错误。DeSVig 高度去中心化,提高了识别异常输入的有效性。我们尝试使用特殊指定的移动边缘计算和生成对抗网络 (GAN) 来克服由行业动态引起的超低延迟挑战。我们工作最重要的优势是它可以显着降低被对抗性示例欺骗的失败风险,这对于安全优先和延迟敏感的环境至关重要。在我们的实验中,工业电子元件的对抗样本由几种经典的攻击模型生成。实验结果表明,DeSVig 比一些最先进的防御方法更强大、更高效、更具可扩展性。
攻击树是对安全性决策,支持网络攻击的识别,文档和分析的流行方法。它们是许多系统工程框架的一部分,例如umlSec [1]和sysmlsec [2],并得到了工业工具(例如Isograph's Attacktree [3])的支持。攻击树(AT)是系统图的层次图,以绘制系统的潜在攻击方案,请参见图。1和2。该图顶部的根部对攻击者的目标进行了建模,该目标通过门进一步将其重新定义为子目标:AN和GATE表示,如果所有儿童攻击成功,则攻击成功;一个或门表示任何单个儿童舒服。树的叶子是基本的攻击步骤(BAS),它模型不可分割的动作,例如切线。
这项工作是在Ferheen Ayaz在格拉斯哥大学任职时完成的。作者的联系信息:伊德里斯·扎卡里亚(Idris Zakariyya),格拉斯哥大学,格拉斯哥,英国,idris.zakariyya@glasgow.ac.ac.uk; Ferheen Ayaz,城市,伦敦大学,伦敦,英国,ferheen.ayaz@city.ac.uk; Mounia Kharbouche-Harrari,法国Stmicroelectronics,Mounia.kharbouche-harrari@st.com;杰里米·辛格(Jeremy Singer),格拉斯哥大学,英国格拉斯哥,jeremy.singer@glasgow.ac.uk; Sye Loong Keoh,格拉斯哥大学,英国格拉斯哥,syeloong.keoh@ glasgow.ac.uk; Danilo Pau,意大利Stmicroelectronics,danilo.pau@st.com;何塞·卡诺(JoséCano),格拉斯哥大学,英国格拉斯哥,josecano.reyes@glasgow.ac.uk。
大脑计算机界面(BCIS)是传统上用于医学的系统,旨在与大脑相互作用以记录或刺激神经元。尽管有好处,但文献表明,专注于神经刺激的侵入性BCI当前的脆弱性使攻击者能够控制。在这种情况下,神经网络攻击成为能够通过进行神经过度刺激或抑制来破坏自发神经活动的威胁。先前的工作在小型模拟中验证了这些攻击,其神经元数量减少,缺乏现实世界中的复杂性。Thus, this work tackles this limitation by analyzing the impact of two existing neural attacks, Neuronal Flooding (FLO) and Neuronal Jamming (JAM), on a complex neuronal topology of the primary visual cortex of mice consisting of approximately 230,000 neurons, tested on three realistic visual stimuli: flash e ff ect, movie, and drifting gratings.在每个刺激的三个相关事件中评估了每次攻击,还测试了攻击25%和50%神经元的影响。根据尖峰和偏移百分比的数量,结果表明,攻击对电影产生了最大的影响,而黑暗和固定事件是最强大的。尽管两种攻击都可以显着发作神经活动,但果酱通常更具破坏性,产生更长的时间延迟,并且患病率更高。最后,果酱不需要改变许多神经元以显着发神经活动,而FLO的影响随着攻击的神经元数量而增加。
“对AI系统的对抗性攻击可以采取微小的,几乎是看不见的调整来输入图像,这可以将模型引导到攻击者想要的结果的微妙修改。“这样的脆弱性使恶意行为者能够以真实产出为幌子以欺骗性或有害内容泛滥数字渠道,从而对AI驱动技术的信任和可靠性构成直接威胁。”