Smack是一种对抗性音频攻击,它利用了对韵律属性的操纵来制作对抗性语音示例。我们的工件包括源代码,用于控制语音韵律的生成模型,以及用于攻击测试的自动语音识别(ASR)和扬声器识别(SR)模型。要操作攻击框架工作,用户需要在命令行中运行程序,提供攻击类型(即针对ASR或SR系统)并指定攻击目标(即目标转录或说话者标签)。预期的结果是对抗性音频样本。考虑到SMACK中涉及的语音生成模型的复杂性,建议使用中等CPU和至少8GB VRAM的GPU的机器。请注意,运行时可能会因用户的硬件而异。我们已将所需依赖项的列表汇编成YML配置文件。
摘要。不受限制的对抗攻击对深度学习模型和对抗性防御技术构成了严重威胁。它们为深度学习应用带来了安全问题,因为它们可以有效地绕过防御机制。然而,以前的攻击通常直接直接将投影梯度下降(PGD)梯度注入生成模型的采样中,这些模型并非理论上是可以预见的,因此通过合并对抗性目标,尤其是对于像ImageNet这样的大型数据集的基于GAN的方法,从而产生了不切实际的示例。在本文中,我们提出了一种称为Advdiff的新方法,以生成具有扩散模型的不受限制的对抗示例。我们设计了两种新型的对抗引导技术,以在扩散模型的反向生成过程中进行对抗采样。这两种技术通过解释的目标分类器的梯度来产生高质量的对抗性示例,在产生高质量的对抗性示例中是有效且稳定的。对MNIST和IMAGENET数据集的实验结果表明,Advdiff在产生无限制的对抗示例方面有效,在攻击性能和发电质量方面,其表现优于最先进的不受限制的对抗攻击方法。
量子计算系统的高精度操作必须对量子硬件中的不确定性和噪声具有鲁棒性。我们表明,通过在不确定性(或噪声)和控制之间进行博弈,可以生成对抗性不确定性样本,以通过搜索纳什均衡来找到高度鲁棒的控制。我们提出了一个广泛的对抗性学习算法系列,即 a-GRAPE 算法,其中包括两种有效的学习方案,在博弈论术语中称为最佳响应方法和更好响应方法,为学习高度鲁棒的控制提供了选择。数值实验表明,保真度和鲁棒性之间的平衡取决于所选对抗性学习算法的细节,这可以有效地显着增强控制鲁棒性,同时实现高保真度。
摘要 - 随着现实世界中的这种技术的增加,对自主驾驶(AD)系统和组件的验证和验证越来越重要。安全性 - 关键场景生成是通过闭环培训来鲁棒性策略的关键方法。然而,场景生成的现有方法依赖于简单的目标,从而导致过度攻击或非反应性的对抗性。为了产生多样化的对抗性但现实的场景,我们提出了印章,即一种方案扰动方法,利用了学分的得分功能和对抗性,类似的人类技能。密封扰动的场景比SOTA基准更现实,从而改善了超过20%以上的真实世界,分布和分布外情景的自我任务成功。为了促进未来的研究,我们发布了我们的代码和工具:https://github.com/cmubig/seal
背景:吸烟构成主要的公共卫生风险。聊天机器人可以作为一种可访问且有用的工具来促进停止,因为它们的高可访问性和促进长期个性化互动的潜力。为了提高有效性和可接受性,仍然需要识别和评估这些聊天机器人的咨询策略,这一方面在先前的研究中尚未全面解决。目的:本研究旨在确定此类聊天机器人支持戒烟的有效咨询策略。此外,我们试图深入了解吸烟者对聊天机器人的期望和经验。方法:这项混合方法研究结合了基于网络的实验和半结构化访谈。吸烟者(n = 229)与动机访谈(MI) - 式(n = 112,48.9%)或对抗性咨询 - 风格(n = 117,51.1%)聊天机器人相互作用。评估了与戒烟相关的(即退出和自我效能的意图)和与用户经验相关的结果(即,参与,敬业,治疗联盟,感知的移情和互动满意度)。对16名参与者进行了半结构化访谈,每个条件的8个(50%),并使用主题分析分析了数据。结果:多元ANOVA的结果表明,参与者的MI(VS对抗咨询)聊天机器人的总体评级明显更高。后续判别分析表明,对MI Chatbot的更好看法主要是用用户体验与相关的结果来解释的,与戒烟相关的结果扮演了较少的角色。探索性分析表明,在这两种情况下吸烟者都报告说,聊天机器人相互作用后戒烟和自我效能的意图增加。访谈结果说明了几种构造(例如情感态度和参与),解释了人们以前的期望以及聊天机器人的及时和回顾性经验。结论:结果证实聊天机器人是激励戒烟的有前途的工具,使用MI可以改善用户体验。我们没有为MI提供额外的支持来激励停止并讨论了可能的原因。吸烟者在退出过程中表达了关系和工具需求。讨论了对未来研究和实践的影响。
深神经网络(DNNS)在许多AI地球观察应用中(AI4EO)中作为关键解决方案的突出性(AI4EO)上升。然而,它们对对抗例子的敏感性构成了一个关键的挑战,损害了AI4EO算法的可靠性。本文在遥感图像(UAD-RS)中提出了一种新型的通用对抗防御方法,利用预训练的扩散模型来保护DNN免受表现出异质对抗模式的各种对抗性示例。具体而言,使用预训练的扩散模型开发了通用的对抗纯化框架,通过引入高斯噪声以及随后从对抗性示例中对扰动的纯化来减轻对抗的扰动。此外,还引入了自适应噪声水平选择(ANL)机制,以确定具有任务指导的Fréchet成立距离(FID)排名策略的纯化框架的最佳噪声水平,从而提高了纯化性能。因此,仅需要一个预训练的扩散模型来净化每个数据集的各种对抗性示例,这些示例具有异质性的对抗模式,从而大大降低了多个攻击设置的训练工作,同时在没有对抗扰动的情况下保持高性能。对四个异质RS数据集进行的实验结果,重点是场景分类和语义分割,表明UAD-RS的表现优于最先进的对抗性纯化方法,从而为七个常见的遇到的对抗性扰动提供了普遍的防御。com/ericyu97/uad-rs)。代码和预训练的模型可在线获得(https://github。
摘要随着脑机接口 (BCI) 的最新进展,脑电图 (EEG) 分析得到了各个领域的广泛研究关注。了解 EEG 分析的弱点对于在日常生活中安全地应用这项新兴技术非常重要。最近的研究表明,在 EEG 数据上添加小扰动时,EEG 分析容易受到对抗性攻击。然而,对于在仅攻击一小部分数据的稀疏扰动下 EEG 分析的稳健性的研究较少。在本文中,我们首次深入研究了稀疏扰动下 EEG 分析的稳健性,并提出了第一个稀疏对抗性 eeG 攻击 SAGA,以识别 EEG 分析的弱点。具体而言,通过将 EEG 数据视为从多个通道收集的时间序列,我们设计了一个自适应掩码来统一表示对抗性攻击中的不同稀疏性。我们进一步引入了基于 PGD 的迭代求解器,在给定的稀疏性约束下自动选择时间步长和通道,并有效地识别 EEG 数据上的对抗性示例。大量实验表明,SAGA 可以有效地生成稀疏扰动,并且仅通过扰动 5% 的通道和时间步长就平均导致准确率下降 77.02%。
摘要。深度神经网络 (DNN) 是用于图像分类的最先进的算法。尽管取得了重大成就和前景,但深度神经网络和伴随的学习算法仍面临一些重要挑战。然而,似乎使用精心设计的输入样本(称为对抗性示例)进行攻击和欺骗相对容易。对抗性扰动对人类来说是不可察觉的。此类攻击对这些系统在关键应用(例如医疗或军事系统)中的发展构成了严重威胁。因此,有必要开发抵御这些攻击的方法。这些方法称为防御策略,旨在提高神经模型对对抗性攻击的鲁棒性。在本文中,我们回顾了对抗性攻击和防御策略的最新发现。我们还使用可解释人工智能家族中的局部和全局分析方法分析了攻击和应用的防御策略的影响。
虽然已经提出了各种方法来解释人工智能模型,但对生成的解释的可信度却很少进行检验。本文表明,这种解释可能容易受到输入的细微扰动的影响,并产生误导性结果。在公共 CheXpert 数据集上,我们证明专门设计的对抗性扰动可以很容易地篡改显着性图以达到所需的解释,同时保留原始模型预测。医学领域的人工智能研究人员、从业者和权威机构在解释人工智能模型时应谨慎,因为这种解释可能不相关、误导,甚至在不改变模型输出的情况下被对抗性操纵。医学领域的人工智能研究人员、从业者和权威机构在解释人工智能模型时应谨慎,因为这种解释可能不相关、误导,甚至在不改变模型输出的情况下被对抗性操纵。
尽管网络架构性能取得了实质性进步,但对抗性攻击的敏感性使深度学习难以在安全关键型应用中实施。本文提出了一种以数据为中心的方法来解决这个问题。一种具有不同亮度值的非局部去噪方法已被用于从修改后的国家标准与技术研究所数据库 (MNIST) 和加拿大高级研究中心 (CIFAR-10) 数据集生成对抗性示例。在扰动下,该方法在 MNIST 数据集中提供了高达 9.3% 的绝对准确度提高,在 CIFAR-10 数据集中提供了高达 13% 的绝对准确度提高。使用具有更高亮度值的变换后图像进行训练可提高分类器的鲁棒性。我们已经证明迁移学习不利于对抗性机器学习。结果表明,简单的对抗性示例可以提高弹性并使深度学习更易于应用于各种应用。