多代理增强学习(MARL)系统中的对抗沟通可能会对其性能产生重大的负面影响。这可能导致系统的次级优势,这是由于不正确或误导性信息引起的决策不良。以前的消除或减少对抗性交流的方法表明,在特定情况下,多代理通信的空间特征可用于检测。但是,它们的有效性是有限的,并且没有很好的文档,尤其是在复杂的场景和针对具有国防策略知识的恶意代理商中。此外,尽管许多先前的作品都集中在代理到代理交流的规范上,但其时间的性质和特征已在很大程度上被忽略了。在这项工作中,我们基于在时间图上的异常检测技术来测试许多不同的假设,以检测MARL系统中对抗性通信的检测和抑制。此外,我们提出了一种新颖的方法,并系统地评估了其在两个复杂的合作场景上使用各种不同的对手剂的有效性。最后,我们开发了一个框架,用于通过对抗性通信进行MARL实验,该实验可以为设计一致且可重现的实验提供统一的方法。
摘要 - 随着机器学习模型持续集成到关键基础架构中,这些系统针对对抗性攻击的弹性对于所有领域都很重要。本文针对使用Ci-CflowMeter Parser的网络数据集引入了针对网络数据集的对抗性攻击生成器框架。我们对包括FGSMA,JSMA,PGD,C&W等各种突出的对抗攻击进行了全面评估,以评估其在OCCP数据集中的效果。对对抗发电机进行了精心评估,证明了模型性能的重大影响以检测潜在的扰动。结果展示了不同类型的对抗攻击的影响,这有助于未来的防御策略的批判性进步,以保护工业控制系统。索引术语 - 对话攻击,白色框,黑框,eva-sion
我们研究了与指数α具有长距离铁磁相互作用衰减的量子图链的相图和临界特性,这是针对当前捕获的离子实验的直接利益的指数α的。使用大规模路径积分蒙特卡洛模拟,我们研究了地面状态和非零温度状态。我们确定铁磁相的相边界,并获得铁磁 - 磁磁过渡温度的准确估计。我们进一步确定了相应过渡的关键指数。我们的结果与某些关键指数中的相互作用指数α> 1的现有预测一致。我们还谈到了难以捉摸的α<1,我们发现地面状态和非零温度转变的通用类别与α= 0的平均值限制一致。我们的工作不仅有助于理解远程相互作用量子模型的平衡特性,而且对于解决基本的动力学方面,例如有关此类模型中的热量问题的问题也很重要。
摘要:在机器学习领域,确保对抗攻击的鲁棒性越来越重要。对抗性训练已成为强化模型免受此类漏洞的重要战略。该项目提供了对抗性训练及其在加强机器学习框架弹性中的关键作用的全面概述。我们深入研究了对抗训练的基本原理,阐明了其基本机制和理论基础。此外,我们调查了在对抗训练中使用的最新方法和技术,包括对抗性示例生成和培训方法。通过对最近的进步和经验发现进行彻底的研究,我们评估了对抗性训练在增强各种领域和应用跨机器学习模型的鲁棒性方面的有效性。此外,我们应对挑战并确定这个新兴领域的开放研究途径,为未来的发展奠定了旨在增强机器学习系统在现实世界情景中的安全性和可靠性的基础。通过阐明对抗性训练的复杂性及其对强大的机器学习的影响,本文有助于促进对维护人工智能不断发展的环境中的对抗性威胁至关重要的理解和应用。关键字:对抗性培训,鲁棒性,SGD,模型增强
卷积神经网络(CNN)可以识别具有不同体系结构的数据中的结构/配置模式,以进行特征提取。然而,关于在BCIS中利用先进的深度学习方法的挑战。我们专注于小型培训样本的问题以及学习参数的可解释性,并利用半监督的生成和歧视性学习框架有效地利用具有真实样本的合成样本来发现类歧视性特征。我们的框架了解使用生成模型在嵌入空间中EEG信号的分布特性。通过使用人工生成和真实的脑电图信号,我们的框架会发现类别歧视时空特征表示,这些表示有助于正确区分输入EEG信号。值得注意的是,该框架有助于对真实的,未标记的样本的开发,以更好地发现用户的EEG信号中固有的基本模式。为了验证我们的框架,我们通过利用三个现有CNN架构的变体作为生成器网络进行了比较我们的方法与常规线性模型进行比较的实验,并在三个公共数据集上测量了性能。我们的框架在统计学上对竞争方法表现出显着的改进。我们通过激活模式图研究了学习的网络,并可视化的产生的人工样本以经验证明我们模型的稳定性和神经生理学合理性是合理的。
摘要 - 对抗性示例代表了几个应用程序域中深层神经网络的严重威胁,并且已经制作了大量的工作来调查它们并减轻其效果。尽管如此,没有太多的工作专门用于评估神经模型的对抗性鲁棒性的数据集的生成。本文介绍了Carla-g Ear,这是一种自动生成与驾驶场景相关的照片真实合成数据集的工具,这些数据集可用于系统评估神经模型的对抗性鲁棒性,以针对物理对抗性斑块,以及比较不同对抗性防御/检测方法的性能。该工具是使用其Python API建立在Carla Simulator上的,并允许在自动驾驶的背景下生成数据集来完成多个视觉任务。生成的数据集中包含的对抗贴片连接到广告牌或卡车的背面,并通过使用最先进的白色盒子攻击策略来制定,以最大程度地提高测试模型的预测错误。最后,本文提出了一项实验研究,以评估某些防御方法针对此类攻击的性能,以表明如何将使用Carla-g e AR生成的数据集用作现实世界中对抗性防御的基准。本文中使用的所有代码和数据集可在http://carlagear.retis.santannapisa.it上获得。
图像分类模型所示的对抗性规避攻击。彻底了解此类攻击对于确保关键 AI 任务的安全性和稳健性至关重要。然而,大多数规避攻击很难针对大多数 AI 系统部署,因为它们只专注于图像域,只有很少的约束。与实践中使用的许多其他 AI 系统输入类型不同,图像由同质、数值、连续和独立的特征组成。此外,某些输入类型包括额外的语义和功能约束,必须遵守这些约束才能生成真实的对抗性输入。在这项工作中,我们提出了一个新框架,使对抗性输入的生成不受输入类型和任务域的限制。给定一个输入和一组预定义的输入转换,我们的框架会发现一系列转换,这些转换会产生语义正确且功能齐全的对抗性输入。我们在具有各种输入表示的几个不同的机器学习任务上展示了我们的方法的通用性。我们还展示了生成对抗性示例的重要性,因为它们可以部署缓解技术。
Stemansy旨在检测数字媒体中的隐藏消息,在信息安全领域提出重大挑战。本文介绍了一种对抗性的切解系统,该系统利用对抗性训练和有效的有效网络的功能提取功能。我们利用有效网络从图像中提取可靠的特征,随后由密集的神经网络对其进行分类,以区分隐志和非稳定摄影含量。为了增强系统对对抗性攻击的弹性,我们实施了一个自定义的对抗训练环,该训练循环使用快速梯度符号方法(FGSM)生成对抗性示例,并将这些示例集成到培训过程中。我们的结果表明,所提出的系统不仅可以在检测隐志含量方面具有很高的准确性,而且还保持了对抗性扰动的鲁棒性。利用最先进的深度学习体系结构和对抗性训练的双重方法为稳固性领域提供了重大进步,从而确保了对数字图像中隐藏信息的更可靠检测。
1教育部图像处理和智能控制的主要实验室,人工智能与自动化学院,华恩科学技术大学,武汉430074,中国; 2华盛科技大学土木工程与力学学院,中国武汉430074; 3工程与信息技术学院人工智能中心,悉尼科技大学,悉尼,新南威尔士州,2007年,澳大利亚; 4美国加利福尼亚州加利福尼亚大学圣地亚哥分校神经计算学院Swartz计算神经科学中心,美国加利福尼亚州92093,美国; 5美国加利福尼亚州加利福尼亚大学圣地亚哥大学医学工程学院高级神经工程中心,美国加利福尼亚州,加利福尼亚州92093,美国和6 Zhaw Datalab,ZéurichApplied Sciences of Applied Sciences,Winterthur 8401,瑞士,
摘要 — 机器学习在基于脑电图 (EEG) 的脑机接口 (BCI) 中取得了巨大成功。现有的大多数 BCI 研究都侧重于提高解码精度,只有少数研究考虑了对抗安全性。尽管在计算机视觉等其他应用领域已经提出了许多对抗性防御方法,但先前的研究表明,将它们直接扩展到 BCI 会降低良性样本的分类精度。这种现象极大地影响了对抗性防御方法对基于 EEG 的 BCI 的适用性。为了缓解这个问题,我们提出了基于对齐的对抗性训练 (ABAT),它在对抗性训练之前执行 EEG 数据对齐。数据对齐将来自不同领域的 EEG 试验对齐以减少它们的分布差异,而对抗性训练进一步增强了分类边界的鲁棒性。数据对齐和对抗性训练的结合可以使训练后的 EEG 分类器同时更准确、更鲁棒。在两种不同的 BCI 范式(运动想象分类和事件相关电位识别)的五个 EEG 数据集、三个卷积神经网络分类器(EEGNet、ShallowCNN 和 DeepCNN)和三种不同的实验设置(离线受试者内跨块/会话分类、在线跨会话分类和预训练分类器)上进行的实验证明了其有效性。非常有趣的是,通常用于破坏 BCI 系统的对抗性攻击可以在 ABAT 中使用,以同时提高模型准确性和鲁棒性。