在这项研究中,我们评估了自主驾驶(AD)系统中增强学习的鲁棒性(RL),特别是反对对抗攻击的稳健性。我们采用了Karavolos等人提出的基于Q学习的AD模型。[1]的简单性,是我们分析的基础。此选择使我们能够在简单的Q学习方法和更复杂的RL系统之间进行明显的比较。我们设计了两个威胁模型,以模拟对基于RL的广告系统的对抗性攻击。第一个模型涉及在RL模型的细调中注入未发现的恶意代码,使其容易受到对抗性扰动的影响,这可能会导致在特定的触发条件下碰撞。第二个威胁模型旨在通过直接改变RL模型在特定触发条件下的行动决策来引起碰撞,这代表了一种更隐秘的方法。基于这些威胁模型,我们对两种主要情况的实证研究提出:操纵传感器输入和直接对动作的扰动。研究结果表明,尽管基于RL的AD系统表现出针对传感器输入操纵的弹性,但在受到直接动作扰动时它们会表现出脆弱性。主要的和宽容的场景涉及更改传感器读数,例如在偏心转弯期间,这可能会误导系统并可能导致事故。这对于小误差很大的操作至关重要。第二种情况直接扰动动作,更多地是对基于RL的AD系统脆弱性的理论研究,而不是实用的现实世界威胁。
摘要 — 单独增强单个深度学习模型的鲁棒性只能提供有限的安全保障,尤其是在面对对抗性示例时。在本文中,我们提出了 DeSVig,这是一个去中心化的 Swift Vigilance 框架,用于识别工业人工智能系统 (IAIS) 中的对抗性攻击,使 IAIS 能够在几秒钟内纠正错误。DeSVig 高度去中心化,提高了识别异常输入的有效性。我们尝试使用特殊指定的移动边缘计算和生成对抗网络 (GAN) 来克服由行业动态引起的超低延迟挑战。我们工作最重要的优势是它可以显着降低被对抗性示例欺骗的失败风险,这对于安全优先和延迟敏感的环境至关重要。在我们的实验中,工业电子元件的对抗样本由几种经典的攻击模型生成。实验结果表明,DeSVig 比一些最先进的防御方法更强大、更高效、更具可扩展性。
这项工作是在Ferheen Ayaz在格拉斯哥大学任职时完成的。作者的联系信息:伊德里斯·扎卡里亚(Idris Zakariyya),格拉斯哥大学,格拉斯哥,英国,idris.zakariyya@glasgow.ac.ac.uk; Ferheen Ayaz,城市,伦敦大学,伦敦,英国,ferheen.ayaz@city.ac.uk; Mounia Kharbouche-Harrari,法国Stmicroelectronics,Mounia.kharbouche-harrari@st.com;杰里米·辛格(Jeremy Singer),格拉斯哥大学,英国格拉斯哥,jeremy.singer@glasgow.ac.uk; Sye Loong Keoh,格拉斯哥大学,英国格拉斯哥,syeloong.keoh@ glasgow.ac.uk; Danilo Pau,意大利Stmicroelectronics,danilo.pau@st.com;何塞·卡诺(JoséCano),格拉斯哥大学,英国格拉斯哥,josecano.reyes@glasgow.ac.uk。
一些研究论文研究了基于 ML 的 IDS 面对对抗性攻击的脆弱性,但其中大多数集中在基于深度学习的分类器上。与它们不同,本文更加关注浅层分类器,由于它们的成熟度和实现的简单性,它们仍然广泛用于基于 ML 的 IDS。更详细地,我们评估了 7 种基于浅层 ML 的 NIDS 的鲁棒性,包括 Adaboost、Bagging、梯度提升 (GB)、逻辑回归 (LR)、决策树 (DT)、随机森林 (RF)、支持向量分类器 (SVC) 以及深度学习网络,以抵御几种在最先进技术 (SOA) 中广泛使用的对抗性攻击。此外,我们应用高斯数据增强防御技术并测量其对提高分类器鲁棒性的贡献。我们使用 NSL-KDD 基准数据集 [5] 和 UNSW-NB 15 数据集 [50] 在不同的场景中进行了广泛的实验。结果表明,攻击对所有分类器的影响并不相同,分类器的稳健性取决于攻击,并且必须根据网络入侵检测场景考虑性能和稳健性之间的权衡。
近年来,物联网设备的数量无疑呈爆炸式增长,达到数十亿台。然而,随着这一发展,一些新的网络安全问题也随之出现。其中一些问题是未经授权设备的部署、恶意代码修改、恶意软件部署或漏洞利用。这一事实促使人们需要基于行为监控的新设备识别机制。此外,由于该领域的进步和处理能力的提高,这些解决方案最近利用了机器和深度学习 (ML/DL) 技术。相比之下,攻击者并没有停滞不前,他们开发了针对上下文修改和 ML/DL 评估规避的对抗性攻击,并将其应用于物联网设备识别解决方案。然而,文献还没有详细分析这些攻击对个人识别解决方案的影响及其对策。这项工作探讨了基于硬件行为的个人设备识别的性能,它如何受到可能的上下文和 ML/DL 重点攻击的影响,以及如何使用防御技术提高其弹性。在这个意义上,它提出了一种基于硬件性能行为的 LSTM-CNN 架构,用于个人设备识别。然后,使用从运行相同软件的 45 台 Raspberry Pi 设备收集的硬件性能数据集,将最常见的 ML/DL 分类技术与所提出的架构进行了比较。LSTM-CNN 改进了以前的解决方案,在所有设备上实现了 +0.96 的平均 F1 分数和 0.8 的最低 TPR。之后,对之前的模型应用了以上下文和 ML/DL 为重点的对抗性攻击,以测试其稳健性。基于温度的上下文攻击无法破坏识别,但一些 ML/DL 最先进的逃避攻击是成功的。最后,选择对抗性训练和模型蒸馏防御技术来提高模型对逃避攻击的弹性,将其稳健性从高达 0.88 的攻击成功率提高到最坏攻击情况下的 0.17,而不会以有影响力的方式降低其性能。
摘要 — 卫星极易受到太空中敌对故障或高能辐射的影响,这可能导致机载计算机出现故障。过去几十年来,人们探索了各种辐射和容错方法,例如纠错码 (ECC) 和基于冗余的方法,以缓解软件和硬件上的临时软错误。然而,传统的 ECC 方法无法处理硬件组件中的硬错误或永久性故障。这项工作引入了一种基于检测和响应的对策来处理部分损坏的处理器芯片。它可以从永久性故障中恢复处理器芯片,并利用芯片上可用的未损坏资源实现连续运行。我们在目标处理器的芯片上加入了基于数字兼容延迟的传感器,以便在发生故障之前可靠地检测到芯片物理结构上的传入辐射或故障尝试。在检测到处理器算术逻辑单元 (ALU) 的一个或多个组件出现故障后,我们的对策采用自适应软件重新编译来重新合成受影响的指令,并用仍在运行的组件的指令替换这些指令,以完成任务。此外,如果故障范围更广,并妨碍了整个处理器的正常运行,我们的方法将部署自适应硬件部分重新配置来替换故障组件并将其重新路由到芯片的未损坏位置。为了验证我们的说法,我们在 28 nm FPGA 上实现的 RISC-V 处理器上部署了高能近红外 (NIR) 激光束,通过部分损坏 FPGA 结构来模拟辐射甚至硬错误。我们证明我们的传感器可以自信地检测到辐射并触发处理器测试和故障恢复机制。最后,我们讨论了我们的对策带来的开销。
•系统上下文图:显示与系统相互作用的用户和外部实体。•容器图:这将系统表示为相互交互的一组独立服务。•组件图:将每个容器分解为详细信息到详细的组件,作为功能块执行特定任务的功能。•代码图:描述每个组件的实现,使用uml uml uml uml duagram andity duagram duagram andity duagram duagram andity duagram duagram andity duagurape andity die tie diagragram andity die diagumal diagumals andity diabes。
不可察觉的对抗性攻击旨在通过添加与输入数据的不可察觉的概念来欺骗DNN。以前的方法通常通过将共同的攻击范式与专门设计的基于感知的损失或生成模型的功能相结合,从而提高了攻击的易用性。在本文中,我们提出了扩散(Advad)中的对抗攻击,这是一种与现有攻击范式不同的新型建模框架。通过理论上探索基本的建模方法,而不是使用需要神经网络的reg-ular扩散模型的转化或发电能力,从而将攻击作为非参数扩散过程概念化。在每个步骤中,仅使用攻击模型而没有任何其他网络来制定许多微妙而有效的对抗指导,从而逐渐将扩散过程的结束从原始图像终结到了所需的不可感知的对抗性示例。以拟议的非参数扩散过程的扎实理论基础为基础,达到了高攻击功效,并且在本质上降低了整体扰动强度,并实现了高发作的效果。此外,还提出了增强版本的Advad-X,以评估我们在理想情况下的新型框架的极端。广泛的实验证明了拟议的Advad和Advad-X的有效性。与最新的不可察觉的攻击相比,Advad平均达到99.9%(+17.3%)的ASR,为1.34(-0.97)L 2距离,49.74(+4.76)PSNR和0.9971(+4.76)和0.9971(+0.0043)(+0.0043)ssim,抗四个DIFERTIBER架构的DNN均具有三个流行的DNN。代码可在https://github.com/xianguikang/advad上找到。
大型语言模型(LLMS)传统上依赖手动及时工程,这可能是耗时且容易受到人类偏见的影响。在本文中,我们提出了一个基于进化增强学习原理(EVORL)的对抗性进化增强学习(AERL)框架[Lin等,2023],以实现对AI剂的持续自我投资。我们的方法迭代生成,测试和完善了通过四个组件的提示或配置:(1)进化提示作者/改进器/改善者,(2)进化模型,(3)对抗模型和(4)法官。通过将候选模型暴露于对抗性的场景中,并通过进化运算符选择最佳变体,AERL促进了强大的,域特异性的解决方案,而无需重新进行过多的人类试验和错误。受到Evorl [Bai等,2023]中多目标优化技术的启发和对抗性训练方法[Goodfellow等人,2014],我们的经验性和有意义的示例来自分散财务(DEFI)(DEFI),代码生成,并且数学推理说明了我们框架的多功能性。结果表明,对抗性的进化策略可以在维持高适应性和性能的同时,诱导地减少人驱动的猜测。