执行摘要 本报告是“准备”系列研究的一部分,1 该系列研究探讨了从新兴技术到极端天气和气候的影响,以及国土安全部 (DHS) 科学技术局 (S&T) 可以寻求的机会来支持该部门的任务。本分析的重点是对抗性人工智能 (AAI) 带来的风险——这种威胁可能会破坏我们对来自数字内容的信息的信任,但这种威胁可能以与传统网络安全威胁截然不同的方式出现,可能需要独特的技能才能理解和应对。本报告反映了国土安全部的总体科学和技术任务与国土安全部部分部门之间就 AAI 造成的当前风险状况进行的讨论;国家实验室和学术界就减轻这些攻击的潜在能力进行的讨论;但更广泛地说,它作为如何制定应对当前和未来 AAI 威胁的战略的参考。它以 2023 年 6 月举行的 S&T 国际研讨会“对抗性 AI 威胁的风险和缓解策略”为基础。总的来说,这项研究的贡献者包括国内外专家和政策制定者,他们认识到人工智能 (AI) 技术对国土安全的前景和好处很难被高估。它显然有潜力让我们的边境和入境口岸更加安全,最大限度地减少国土安全官员的认知负担,并帮助自动化固有增强国土安全服务、行动和人员的安全性、生产力和效率的流程。然而,人工智能的变革力量带来了新的挑战和新兴风险,即 AAI 或 AAI 攻击。在可能发生的各种形式的 AAI 攻击中(第 2 节中描述),AAI 专家认为逃避攻击和生成性欺骗性 AI 是近期对 DHS 任务的最大威胁。这些 AAI 类型结合起来尤其强大,使用生成性欺骗性 AI 创建的内容来逃避基于模型的推理过程。但是,由于 DHS 的 AI 技术仍处于早期开发阶段,其他 AAI 类型和形式的攻击将成为更大的问题,因为这些 AI 系统也容易受到各种其他形式的利用和滥用。这应该包括 AI“能力”的结合(例如,负责任、道德等)另一个得到 AAI 专家广泛支持的概念是,需要在系统生命周期的早期和整个过程中纳入 AAI 风险的分析和缓解,尽可能从最左边开始,以通过设计促进安全性。在我们的需求流程、AI 安全评估和 AI 标准开发中,在我们的系统工程流程中,以及需要开发全面的测试和评估工具、方法和程序来了解 AAI 风险并减轻系统和任务级别的后续威胁。这需要在测量和评估潜在漏洞程度的艺术和科学方面取得进步,探索使 AI 更加强大的方法。重要的是,我们如何应对 AAI 对国土的新兴影响将需要一个尚不存在的响应生态系统。我们如何努力支持联邦、州、地方、部落和领土执法部门和急救人员应对日益多样化的 AAI 可能性,将需要与这些社区进行新的讨论,以帮助制定优先事项。类似事件响应团队的构建可能很有价值,与 US-CERT 2 类似,但适用于完全不同的情况。与我们的盟友建立广泛的伙伴关系也将有助于在对抗 AAI 方面取得进展,不仅从了解影响,而且从制定标准甚至测试和评估方面。
潜在扩散模型(LDM)在图像生成中实现了最先进的性能,但提高了版权和隐私问题。对LDM的对抗性攻击是为了保护未经授权的图像免于在LDM驱动的几弹性生成中使用。但是,这些攻击遭受了中等的表现和过度的计算成本,尤其是在GPU内存中。在本文中,我们提出了对LDM的有效对抗性攻击,该攻击表现出了针对最先进的LDM的最先进的发电管道的卓越性能。我们通过引入多种机制并将攻击的内存成本降低到小于6GB,以记忆效率实现攻击,这使各个用户可以对大多数消费者GPU进行攻击。我们提出的攻击可能是面临LDM为保护自己带来的版权和隐私风险的人们的实用工具。
在没有侧面信息的情况下,让我们首先引入了通常的猜测问题的对抗性扩展[1-10]。一方可以随意选择一个概率分布P,用于随机变量M,而不是字母M,并将她的选择传达给另一方(在先前考虑的,非对抗的情况下,P被游戏规则所构成)。在游戏的每一轮中,爱丽丝根据分布p随机选择一个值m,而鲍勃(Bob)对随机变量m的值进行了询问,一次是一个随机变量的值,直到他的猜测正确为止。例如,让我们考虑情况m = {a,b,c}。在这种情况下,鲍勃的第一个查询可能是b。如果爱丽丝回答负面,那么他的下一个查询可能是一个。假设这次爱丽丝在官能上回答,这一轮已经结束。鲍勃选择了查询的顺序,以最大程度地减少所产生的成本,提前双方已知的成本功能,仅取决于平均查询数量;爱丽丝选择先前的概率分布p来最大化这种成本。Alice和Bob的最佳策略都是显而易见的:对于Alice,它包括选择P作为M上方的均匀分布,而对于BOB,它包括以其先前概率的非进攻顺序查询M的值。
逐渐的域适应性(GDA),其中为学习者提供了辅助中间域,在许多情况下已经在理论上和经验上研究了。尽管在关键安全方案中起着至关重要的作用,但GDA模型的对抗性鲁棒性仍然没有探索。在本文中,我们采用了有效的渐进自我训练方法,并用副本自我训练(AST)替换香草自我训练。AST首先预测未标记的数据上的标签,然后对手在伪标记的分布上训练模型。有趣的是,我们发现逐渐的AST不仅提高了对抗性的准确性,而且可以提高目标域的清洁准确性。我们揭示这是因为当伪标签包含一部分不正确标签时,对抗性训练(AT)的性能要比标准训练更好。因此,我们首先介绍多类分类设置中逐渐AST的概括误差界限。然后,我们使用子集总和问题的最佳值在真实分布和伪标记分布上的对抗误差上桥接标准误差。结果表明,在具有不正确的伪标签的数据上,可能会获得比标准培训更紧密的结合。我们进一步提出了有条件的高斯分布的一个例子,以提供更多的见解,说明为什么逐渐的AST可以提高GDA的清洁精度。
AKLT状态是各向同性量子Heisenberg Spin-1模型的基态。它表现出激发差距和指数衰减的相关函数,并在其边界处具有分数激发。到目前为止,仅通过捕获离子和光子系统实验实现了一维AKLT模型。在这项工作中,我们成功地准备了嘈杂的中间量子量子(NISQ)ERA量子设备上的AKLT状态。尤其是,我们在IBM量子处理器上开发了一种非确定性算法,其中AKLT状态制备所需的非单生操作员嵌入到单一操作员中,并为每对辅助旋转旋转1 /2的额外的Ancilla Qubit带有附加的Ancilla Qubit。这样的统一操作员有效地由由单量子和最近的邻居CX门组成的参数化电路表示。与Qiskit的常规操作员分解方法相结合,我们的方法导致了较浅的电路深度,仅邻近邻居的大门,而原始操作员的忠诚度超过99.99%。通过同时选择每个Ancilla Qubit,以使其属于旋转|↑>的子空间,可以通过从最初的单元状态以及量子计算机上的旋转量中的旋转量中的初始产品状态以及随后对所有其他物理量进行录制来系统地获得AKLT状态。我们展示了如何通过减轻读数错误的IBM量子专业人员进一步提高实施的准确性。
摘要 - 脑启发的超维度计算(HDC),也称为矢量符号结构(VSA),是一种急剧的“非von neumann”计算方案,该方案模仿人脑功能以处理信息或使用抽象和高维模式来处理信息或执行学习任务。与深神经网络(DNN)相比,HDC显示出诸如紧凑的模型大小,能量效率和少量学习的优势。尽管有这些优势,但HDC的一个不足的区域是对抗性的鲁棒性。现有的作品表明,HDC容易受到对抗性攻击的攻击,在这种攻击中,攻击者可以在原始输入中添加少量扰动到“傻瓜” HDC模型,从而产生错误的预测。在本文中,我们通过开发一种系统的方法来测试和增强HDC对对抗性攻击的鲁棒性,系统地研究HDC的对抗性鲁棒性,并具有两个主要成分:(1)TestHD,这是一种可以为给定的HDC模型生成高素质高素质的测试工具,该工具可以为给定的HDC模型生成高素质的高素质数据; (2)GuardHD,它利用TestHD生成的对抗数据来增强HDC模型的对抗性鲁棒性。testHD的核心思想建立在模糊测试方法之上。我们通过提出基于相似性的覆盖率度量来定制模糊方法,以指导TestHD连续突变原始输入,以生成可能触发HDC模型不正确行为的新输入。由于使用差异测试,TestHD不需要事先知道样品的标签。为了增强对抗性鲁棒性,我们设计,实施和评估GuardHD以捍卫HDC模型免受对抗数据的影响。GuardHD的核心思想是一种对抗探测器,可以通过测试HDD生成的对抗样本训练。在推断期间,一旦检测到对抗样本,GuardHD将用“无效”信号覆盖词典结果。我们评估了4个数据集和5个对抗性攻击方案的提议方法,具有6种对抗生成策略和2种防御机制,并相应地比较了性能。GuardHD能够区分精度超过90%的良性和对抗性输入,比基于对抗性训练的基线高达55%。据我们所知,本文在系统地测试和增强对这种新兴脑启发的计算模型的对抗数据的鲁棒性方面提出了第一个全面的努力。索引术语 - 远程计算,差异绒毛测试,对抗攻击,强大的计算
除了民用应用外,人工智能在安全领域也具有巨大潜力,因为该领域的很大一部分活动都依赖于基于正确信息做出的决策(Swillens,2022 年)。因此,人工智能系统是国防部门应用的一个相关选择。例如,人工智能目前已经在信息收集以及驾驶无人机等自动驾驶和半自动驾驶车辆方面发挥着重要作用(Xue、Yuan、Wu、Zhang & Liu,2020 年;Araya & King,2022 年)。然而,在大规模部署这些人工智能系统之前,必须正确分析它们抵御外部威胁的能力。TNO 通过研究人工智能系统稳健性的最新进展做出了贡献。本文总结了该研究的结论。
工业互联网(IIOT)是传感器,网络设备和设备的协作,可从工业运营中收集数据。IIOT系统由于相互连接和计算能力有限而具有许多安全漏洞。Ma-Chine学习的入侵检测系统(IDS)是一种可能的安全方法,它可以不断监视网络数据并以自动化方式检测网络攻击。超维(HD)计算是一种受脑启发的ML方法,在极其稳健,快速和能效的同时非常准确。基于这些特征,HD可以是IIOT系统的基于ML的IDS解决方案。但是,其预测性能受到输入数据中的小扰动的影响。为了充分评估HD的脆弱性,我们提出了一种有效的面向HD的广泛攻击设计。我们首先选择最多样化的攻击集以最大程度地减少开销,并消除对抗性的冗余。然后,我们执行实时攻击选择,发现最有效的攻击。我们对现实的IIOT入侵数据集的实验显示了我们攻击设计的有效性。与最有效的单次攻击相比,我们的设计策略可以提高攻击成功率高达36%,而𝐹1得分最多可以提高61%。
使用对抗性的条件变量自动编码器Keisuke Kojimaa,Toshiaki Koike-Akinob,Ye Wangb,Minwoo Jungb,C,C和Matthew BrandB BrandB Aboston Quantum Photonics Llc,588 Bost Post rd#315, Bmitsubishi电力研究实验室,201号百老汇,马萨诸塞州剑桥市02139,美国cdepartment of Adryics,康奈尔大学,纽约州伊萨卡,纽约州14853,美国。abract用于元设计和元城的逆设计,已经广泛探索了生成的深度学习。大多数作品都是基于条件生成的对抗网络(CGAN)及其变体,但是,选择适当的超级参数以进行有效的训练很具有挑战性。另一种方法是一种对抗性的条件变化Au-Toencoder(A-CVAE),尚未探索Metagrats和MetaSurfaces的逆设计,尽管最近它对Planar Nananophotonic vaveguide wavelguide Power/波长偏开剂的平面设计表现出了很大的希望。在本文中,我们讨论了如何将A-CVAE应用于二维自由形式的Metagratings,包括培训数据集准备,网络的构建,培训技术以及反向设计的元群的性能。
对抗性攻击是一类分析神经网络参数以计算一系列导致错误分类的输入变化的技术。一个著名的例子是一只具有独特图案的 3D 打印海龟,这导致计算机视觉算法将其错误分类为步枪 (Athalye et al., 2018)。这些例子可能对操作环境中的 AI 系统的安全性和有效性构成重大威胁。如图 1 所示,对抗性攻击引起了研究界的广泛关注:2013 年至 2020 年间发表的数千篇论文致力于识别新的攻击载体并加强对它们的防御。尽管该领域的学术研究越来越多,但许多提出的对抗性攻击载体在现实世界中的相关性值得怀疑 (Gilmer et al., 2018)。简而言之,研究人员经常开发