鉴于机器学习的最新进展(ML),密码学界已经开始探索ML方法对新的密码分析方法设计的适用性。虽然当前的经验结果表现出了希望,但这种方法在多大程度上胜过classical classical cryptantrytic方法的程度仍然不清楚。在这项工作中,我们启动探索基于ML的密码分析技术的理论,尤其是为了了解与传统方法相比,它们是否从根本上限制了新的结果。虽然大多数经典的密码分析至关重要地依赖于处理单个样本(例如,明文 - 含量对),但迄今为止,现代的ML方法仅通过基于梯度的计算与样品相互作用,这些计算平均损失函数在所有样品上。因此,可以想象的是,这种基于梯度的方法本质上比经典方法弱。我们引入了一个统一的框架,用于捕获具有直接访问单个样本和“基于梯度的”的“基于样本”的对手,这些框架仅限于发出基于梯度的查询,这些查询通过损失函数在所有给定的样本上平均。在我们的框架内,我们建立了一个一般的可行性结果,表明任何基于样本的对手都可以通过看似基于潜在的基于梯度的对手进行模拟。此外,就基于梯度的模拟器的运行时间而言,模拟表现出几乎最佳的开销。最后,我们扩展并完善了模拟技术,以构建一个完全可行的基于梯度的模拟器(对于避免可行的可行的隐秘任务的不良开销至关重要),然后将其用于构建基于梯度的模拟器,该模拟器可以执行特定和非常有用的梯度方法。共同审议,尽管ML方法在多大程度上胜过经典的隐式分析方法仍然不清楚,但我们的结果表明,这种基于梯度的方法并非本质上受到其看似限制对所提供样品的访问的限制。
多模式嵌入式编码文本,图像,热图像,声音和视频中的单个嵌入空间,对跨不同方式的对齐表示(例如,,将狗的图像与吠叫声相关联)。在本文中,我们表明多模式的嵌入可能容易受到我们称为“对抗幻觉的攻击”。给定图像或声音,对手可以扰动它,以使其嵌入接近另一种模式中的任意,对手选择的输入。这些攻击是跨模式和目标的:对手可以将任何图像或声音与他选择的任何目标保持一致。广泛的幻觉利用了嵌入空间中的邻近性,因此对下游任务和方式不可知,从而实现了当前和将来的任务的批发妥协,以及对敌方无法获得的方式。使用Imbind和AudioClip嵌入,我们演示了对抗性输入,在不了解特定下游任务,误解图像生成,文本生成,零拍,零拍摄和音频检索的情况下生成的对准输入是如何对准的。我们调查了跨不同嵌入式嵌入方式的幻觉的可转移性,并开发了我们方法的黑盒版本,我们用来证明对亚马逊商业专有泰坦嵌入的第一个对抗性对齐攻击。最后,我们分析了对策和逃避攻击。
摘要:在水下成像中,实现高质量的成像是必不可少的,但由于诸如波长依赖性吸收和复杂的照明动力学之类的因素而具有挑战性。本文介绍了MEVO-GAN,这是一种新颖的方法,旨在通过将生成性对抗网络与遗传算法相结合来解决这些挑战。关键创新在于将遗传算法原理与生成对抗网络(GAN)中的多尺度发生器和鉴别器结构的整合。这种方法增强了图像细节和结构完整性,同时显着提高了训练稳定性。这种组合可以对溶液空间进行更有效的探索和优化,从而减少振荡,减轻模式崩溃以及对高质量生成结果的平滑收敛。通过以定量和定性的方式分析各种公共数据集,结果证实了Mevo-GAN在改善水下图像的清晰度,颜色保真度和细节准确性方面的有效性。在UIEB数据集上的实验结果非常明显,Mevo-GAN的峰值信噪比(PSNR)为21.2758,结构相似性指数(SSIM)为0.8662,为0.6597。
摘要。不受限制的对抗攻击对深度学习模型和对抗性防御技术构成了严重威胁。它们为深度学习应用带来了安全问题,因为它们可以有效地绕过防御机制。然而,以前的攻击通常直接直接将投影梯度下降(PGD)梯度注入生成模型的采样中,这些模型并非理论上是可以预见的,因此通过合并对抗性目标,尤其是对于像ImageNet这样的大型数据集的基于GAN的方法,从而产生了不切实际的示例。在本文中,我们提出了一种称为Advdiff的新方法,以生成具有扩散模型的不受限制的对抗示例。我们设计了两种新型的对抗引导技术,以在扩散模型的反向生成过程中进行对抗采样。这两种技术通过解释的目标分类器的梯度来产生高质量的对抗性示例,在产生高质量的对抗性示例中是有效且稳定的。对MNIST和IMAGENET数据集的实验结果表明,Advdiff在产生无限制的对抗示例方面有效,在攻击性能和发电质量方面,其表现优于最先进的不受限制的对抗攻击方法。
摘要随着我们越来越多地将人工智能整合到我们的日常任务中,至关重要的是要确保这些系统可靠且可靠地抵抗对抗性攻击。在本文中,我们介绍了Clef Checkthat任务6的参与!2024实验室。在我们的工作中,我们探索了几种方法,可以将其分为两类。第一组专注于使用遗传算法来检测单词并通过多种方法(例如添加/删除单词和使用同义)进行更改。在第二组方法中,我们使用大型语言模型来产生对抗性攻击。基于我们的综合实验,我们选择了基于遗传算法的模型,该模型利用分裂单词和同质同源物作为文本操纵方法的组合,作为我们的主要模型。我们根据Bodega度量和手动评估排名第三。
摘要。知识图表示三倍的数据,以将连接的数据点相互链接。这种知识表示形式具有多种应用,例如查询和查找信息或进行数据推断。但是,在某些领域,例如医疗记录或智能房屋设备,这些知识图很难大规模公开可用,这是由于隐私性的。因此,有一种方法可以从原始数据中生成合成知识数据以进行大规模使用将是有益的。本文的目的是找出可以在多大程度上为知识图创建有意义的合成时间序列数据。尝试找到一种解决方案,以创建具有与原始数据相似的数据的解决方案,将测试两个现有的生成对抗网络(GAN),即CTGAN和TIMEGAN。实验的结果表明,这两个模型都设法从数据集中捕获了一些重要功能,但是两个模型都没有原始数据中的所有功能。需要进行进一步的研究,以找到满足有意义的合成知识图要求的解决方案。
对抗性机器学习 (ML) 的最新研究工作已经调查了问题空间攻击,重点关注在与图像不同、没有明确的特征空间逆映射的领域(例如软件)中生成真实的规避对象。然而,问题空间攻击的设计、比较和现实影响仍未得到充分探索。本文做出了三个主要贡献。首先,我们提出了问题空间中对抗性 ML 规避攻击的一般形式化,其中包括对可用转换、保留语义、缺失伪影和合理性的全面约束集的定义。我们阐明了特征空间和问题空间之间的关系,并引入了副作用特征的概念作为逆特征映射问题的副产品。这使我们能够定义并证明问题空间攻击存在的必要和充分条件。其次,基于我们的一般形式化,我们提出了一种针对 Android 恶意软件的新型问题空间攻击,该攻击克服了过去在语义和伪影方面的限制。我们已经在包含 2016 年和 2018 年的 15 万个 Android 应用程序的数据集上测试了我们的方法,结果表明逃避最先进的恶意软件分类器及其强化版本的实际可行性。第三,我们探索对抗性训练作为一种可能方法来增强对抗性样本的鲁棒性的有效性,评估其在不同场景下对所考虑的机器学习模型的有效性。我们的结果表明,“对抗性恶意软件即服务”是一种现实威胁,因为我们会自动大规模生成数千个真实且不显眼的对抗性应用程序,平均只需几分钟即可生成一个对抗性实例。
摘要。随着自主着陆系统中深度学习技术的发展不断增长,面对可能的对抗性攻击,主要挑战之一是信任和安全。在本文中,我们提出了一个基于对抗性学习的框架,以使用包含干净本地数据及其对抗性版本的配对数据来检测着陆跑道。首先,本地模型是在大型车道检测数据集上预先训练的。然后,我们求助于预先训练的模型,而不是利用大实例 - 自适应模型,而是诉诸于一种称为比例和深度特征(SSF)的参数 - fne-fne-tuning方法。其次,在每个SSF层中,干净的本地数据及其广泛的广告版本的分布被列出,以进行准确的统计估计。据我们所知,这标志着联邦学习工作的frst实例,该工作解决了登陆跑道检测中对抗性样本问题。我们对降落方法跑道检测(猪油)数据集的合成和真实图像的实验评估始终证明了所提出的联邦对抗性学习的良好性能,并对对抗性攻击进行了鲁棒。
在网络安全方面,攻击者和捍卫者在战略上共同努力的方式越来越像游戏的总体运作方式。对抗机器学习(AML)已成为黑客入侵的重要领域。在AML中,攻击者使用复杂的方法避免被捕获并利用机器学习模型中的缺陷。 这项研究的目的是通过查看游戏理论和AML满足的位置,全面了解策略如何结合网络安全。 您可以将网络安全中的战略交流视为攻击者和防守者之间的游戏。 防守者希望确保系统和数据安全,并且敌人希望出于不良原因闯入它们。 在这个游戏中,玩家必须做出很多决定。 后卫必须提前思考并为可能的攻击做准备,而攻击者一直在改变计划,以避免被抓住并利用防御弱点。 游戏理论为我们提供了一种正式建模这些交互作用的方法,这使我们可以研究平衡的最佳策略和结果。 在AML期间,防御者使用机器学习模型来查找和停止安全风险,而攻击者则使用逃生攻击,中毒攻击和模型反演攻击等方法更改这些模型。 在这些敌对策略中,网络安全添加了一个战略要素,后卫必须在创建和使用防御时考虑攻击者的目标和技能。 本文研究了已经对使用游戏理论研究黑客研究的研究以及如何使用这些模型来研究策略如何在AML中融合。在AML中,攻击者使用复杂的方法避免被捕获并利用机器学习模型中的缺陷。这项研究的目的是通过查看游戏理论和AML满足的位置,全面了解策略如何结合网络安全。您可以将网络安全中的战略交流视为攻击者和防守者之间的游戏。防守者希望确保系统和数据安全,并且敌人希望出于不良原因闯入它们。在这个游戏中,玩家必须做出很多决定。后卫必须提前思考并为可能的攻击做准备,而攻击者一直在改变计划,以避免被抓住并利用防御弱点。游戏理论为我们提供了一种正式建模这些交互作用的方法,这使我们可以研究平衡的最佳策略和结果。在AML期间,防御者使用机器学习模型来查找和停止安全风险,而攻击者则使用逃生攻击,中毒攻击和模型反演攻击等方法更改这些模型。在这些敌对策略中,网络安全添加了一个战略要素,后卫必须在创建和使用防御时考虑攻击者的目标和技能。本文研究了已经对使用游戏理论研究黑客研究的研究以及如何使用这些模型来研究策略如何在AML中融合。它讨论了不同类型的游戏,例如刚性和动态游戏,以及它们对保护其他玩家的威胁意味着什么。除此之外,它可以研究知识,怀疑和策略学习的不平衡如何影响计算机游戏的结果。本文通过将游戏理论与AML相结合,可以帮助我们理解攻击者和防守者在网络安全中面临的策略问题。它显示了战略性思考和建造可以改变以应对改变风险的武器的重要性,并为该领域的未来研究奠定了基础,
摘要:机器学习中的分解助长了连接和自动驾驶汽车(CAV)的快速进步,但它们遇到了对抗性攻击的重大风险。本研究探讨了基于机器学习的入侵检测系统(IDSS)在车内网络(IVN)中的脆弱性(IDSS)到对抗性攻击,从而从对操纵CAV感知模型的常见研究转移了重点。考虑到IVN数据的相对简单性质,我们评估了基于IVN的IDS对操纵的敏感性,这是一种至关重要的检查,因为对抗性攻击通常会利用复杂性。我们使用替代IDS提出了一种对抗性攻击方法,该替代ID经过培训的诊断端口数据。在遵守现实的IVN流量限制的同时,在黑盒条件下进行这些攻击时,我们的方法试图欺骗ID,以误解了正常情况到恶意和恶意的案例。对两个IDS模型的评估(基线ID和最先进的模型,即MTH-IDS)呈现了实质性的漏洞,将F1得分从95%降低到97%,并从97%降低到79%。值得注意的是,诱导虚假警报被证明是一种对抗性策略特别有效,破坏了用户对国防机制的信任。尽管基于IVN的IDS的简单性,但我们的发现揭示了可能威胁到车辆安全的关键漏洞,并且需要仔细考虑基于IVN的IDSS的开发以及对IDSS警报的响应的制定。