不可察觉的对抗性攻击旨在通过添加与输入数据的不可察觉的概念来欺骗DNN。以前的方法通常通过将共同的攻击范式与专门设计的基于感知的损失或生成模型的功能相结合,从而提高了攻击的易用性。在本文中,我们提出了扩散(Advad)中的对抗攻击,这是一种与现有攻击范式不同的新型建模框架。通过理论上探索基本的建模方法,而不是使用需要神经网络的reg-ular扩散模型的转化或发电能力,从而将攻击作为非参数扩散过程概念化。在每个步骤中,仅使用攻击模型而没有任何其他网络来制定许多微妙而有效的对抗指导,从而逐渐将扩散过程的结束从原始图像终结到了所需的不可感知的对抗性示例。以拟议的非参数扩散过程的扎实理论基础为基础,达到了高攻击功效,并且在本质上降低了整体扰动强度,并实现了高发作的效果。此外,还提出了增强版本的Advad-X,以评估我们在理想情况下的新型框架的极端。广泛的实验证明了拟议的Advad和Advad-X的有效性。与最新的不可察觉的攻击相比,Advad平均达到99.9%(+17.3%)的ASR,为1.34(-0.97)L 2距离,49.74(+4.76)PSNR和0.9971(+4.76)和0.9971(+0.0043)(+0.0043)ssim,抗四个DIFERTIBER架构的DNN均具有三个流行的DNN。代码可在https://github.com/xianguikang/advad上找到。
对抗性攻击是一类分析神经网络参数以计算一系列导致错误分类的输入变化的技术。一个著名的例子是一只具有独特图案的 3D 打印海龟,这导致计算机视觉算法将其错误分类为步枪 (Athalye et al., 2018)。这些例子可能对操作环境中的 AI 系统的安全性和有效性构成重大威胁。如图 1 所示,对抗性攻击引起了研究界的广泛关注:2013 年至 2020 年间发表的数千篇论文致力于识别新的攻击载体并加强对它们的防御。尽管该领域的学术研究越来越多,但许多提出的对抗性攻击载体在现实世界中的相关性值得怀疑 (Gilmer et al., 2018)。简而言之,研究人员经常开发
在过去的二十年里,生物技术的世界已经从模拟走向数字,并与人工智能 (AI) 融合,成为创新的催化剂。人工智能、遗传学家和生物工程师之间的新合作催生了功能基因组学领域,从而更精确地理解和优化了基因组生物学中的功能过程。深度学习算法可以帮助计算机分析和测试遗传功能,并有助于预测基因突变对个体整体基因组的影响。此类算法改进了与人类和病原体相关的基因组数据集中基因型和表型之间组合关系的分析。其他深度学习模型旨在揭示基因组生物学的重要特征,从模拟 RNA 处理事件到模拟控制基因表达的遗传调控代码。
自然语言处理 (NLP) 系统通常用于对抗性任务,例如检测垃圾邮件、辱骂、仇恨言论和虚假新闻。正确评估此类系统需要动态评估来搜索模型中的弱点,而不是静态测试集。先前的工作已经在手动和自动生成的示例上评估了此类模型,但这两种方法都有局限性:手动构建的示例创建起来很耗时,并且受到创建者的想象力和直觉的限制,而自动构建的示例通常不合语法或标签不一致。我们建议将人类和人工智能的专业知识结合起来生成对抗性示例,受益于人类在语言方面的专业知识和自动攻击更快、更彻底地探测目标系统的能力。我们提出了一个促进攻击构建的系统,将人类判断与自动攻击相结合,以更有效地创建更好的攻击。我们自己实验的初步结果表明,人机混合攻击比纯人类或纯人工智能攻击更有效。验证这些假设的完整用户研究仍有待完成。
摘要。随着计算、传感和车辆电子技术的进步,自动驾驶汽车正在成为现实。对于自动驾驶,雷达、激光雷达和视觉传感器等环境感知传感器作为车辆的眼睛发挥着核心作用;因此,它们的可靠性不容妥协。在本研究中,我们提出了一种通过中继攻击进行欺骗,它不仅可以在激光雷达输出中引起错觉,还可以使错觉看起来比欺骗设备的位置更近。在最近的一项研究中,前一种攻击被证明是有效的,但后一种攻击从未被证明过。此外,我们提出了一种针对激光雷达的新型饱和攻击,它可以完全使激光雷达无法感知某个方向。这两种方法的有效性都已通过 Velodyne 的 VLP-16 实验验证。
执行总结数字内容伪造技术的快速发展构成了重大威胁,并对国土安全任务构成了重大风险。面部编辑和变形技术可以创造出现实的人体面孔,从而可能损害面部识别系统,从而导致未经授权的访问和身份管理中的违规行为。在视频中交换面孔的能力可能会破坏视觉验证过程的可靠性。语音克隆应用程序可以复制个人的声音,可能会对执法任务提出严重的挑战。生成人工智能(Genai)儿童性虐待材料(CSAM)正在增加。这种生成的材料是有害和非法的。诸如预防恐怖主义的任务变得复杂,因为数字内容伪造会促进动荡并促进激进化。数字内容伪造的含义扩展到确保网络空间和保护关键基础设施,例如通过设计和执行复杂的社会工程攻击。此外,他们威胁着基本任务的完整性,包括紧急和灾难管理,运输安全和海上意识。本报告提出了八个关键的技术观察和考虑因素:便利与安全:在对便利性增加的渴望下,政府身份管理系统(例如全球入境和真实ID)试图扩大用户通过Internet注册的能力。本报告评估了用于创建和传播数字内容伪造并描述其演变的技术;评估外国政府和非政府实体如何使用这些技术来武器化数字内容伪造;讨论武器化数字内容伪造的影响,并特别考虑国土安全任务;并且描述了降低风险的策略,以应对和减轻这些威胁。越来越多的Deepfake技术使用可以打败在线身份管理系统,建议谨慎,并认识到在线注册所带来的安全含义。多管齐下的缓解方法:我们目睹了生成和检测深击的方法之间的“猫与鼠标”游戏。检测高度确定性的深击将永远是一个挑战。考虑到将用于创建出于合法目的(包括电视和电影院)的Genai的量增加,这一挑战是更大的。明天的威胁:Genai技术正在改善并变得越来越广泛,这表明高度现实的欺骗性媒体的威胁只会随着技术加速的能力和可访问性而增长。AI软件:DeepFakes和创建它们的算法最终在软件中表现出来,这些软件受到网络攻击和剥削的影响。因此,许多迫在眉睫的网络安全问题会使AI和Genai风险复杂化。AI硬件和AI竞赛:将对美国对AI硬件平台的未来领导和控制。美国在这些领域的优势将受到未来市场和技术挑战的影响,例如供应链障碍和竞争,以避免使用主要供应商的筹码成本高昂。技术情报:民族国家级别的能力以现有的商业和开源AI体系结构为基础,但是由于民族国家既拥有独特的资源和独特的专有数据集来培训Genai模型,所以他们在数字内容伪造方面的未来熟练程度可能会增强。人工通用情报(AGI)里程碑:通过研究提高AGI将受益于描述用例和基准以及能量估计的框架,并将其用作成功标记或里程碑。
摘要:脑机接口(BCI)在各个领域有着广泛的应用。在基于脑电信号的研究中,信号去噪是必不可少的一步。本文提出了一种基于生成对抗网络(GAN)的去噪方法,对多通道脑电信号进行自动去噪。定义新的损失函数以确保滤波后的信号能够尽可能多地保留原始的有效信息和能量。该模型可以模仿和集成人工去噪方法,减少处理时间,因此可以用于大量数据处理。与其他神经网络去噪模型相比,所提出的模型多了一个判别器,它始终判断噪声是否被滤除。生成器则不断改变去噪方式。为了确保GAN模型稳定地生成脑电信号,提出了一种新的归一化方法,即基于样本熵阈值和能量阈值(SETET)归一化来检查异常信号并限制脑电信号的范围。去噪系统建立后,虽然去噪模型采用不同受试者的数据进行训练,但仍然能够适用于新受试者的数据去噪。本文讨论的实验采用HaLT公开数据集。相关性和均方根误差(RMSE)作为评价标准。结果表明,提出的自动GAN去噪网络达到了与手动混合人工去噪方法相同的性能。此外,GAN网络使去噪过程自动化,大大减少了时间。
火焰和烟雾图像处理和分析可以提高性能,以检测烟雾或射击,并确定许多复杂的火灾危害,最终帮助消防员安全地击败火灾。近年来,在与图像相关的研究领域中,应用于图像处理的深度学习已盛行。消防安全研究人员还因为在与图像相关的任务和统计分析方面的领先表现,将其带入了他们的研究。从输入数据类型的角度来看,传统的火灾研究基于简单的数学回归或依靠传感器数据(例如温度)的经验相关性。但是,可以通过在数据处理和分析中应用深度学习来分析来自高级视力设备或传感器的数据。深度学习在非线性问题上具有更大的能力,尤其是在高维空间(例如火焰和烟雾图像处理)中。我们提出了一个具有深度学习网络和消防安全知识的基于视频的实时烟雾和火焰分析系统。它将火视频作为输入,并产生了火灾闪存的分析和预测。
摘要 - 对象检测是一个关键函数,可从传感器获取的数据中检测对象的位置和类型。在自主驾驶系统中,使用来自摄像机和激光镜头的数据进行对象检测,并根据结果,控制车辆以遵循最安全的路线。但是,据报道,基于机器学习的对象检测具有对对抗样本的脆弱性。在这项研究中,我们提出了一种新的攻击方法,称为LIDAR对象检测模型“ Shadow Hack”。虽然先前的攻击方法主要添加了扰动点云到激光雷达数据中,但在这项研究中,我们引入了一种在激光雷达点云上生成“对抗阴影”的方法。特别是,攻击者从战略上放置了诸如铝制休闲垫之类的材料,以在激光雷达点云上重现优化的位置和阴影的形状。该技术可能会在自动驾驶汽车中误导基于激光雷达的对象检测,从而导致诸如制动和避免操纵之类的行动导致交通拥堵和事故。我们使用仿真来重现Shadow Hack攻击方法,并评估攻击的成功率。此外,通过揭示攻击成功的条件,我们旨在提出对策并有助于增强自动驾驶系统的鲁棒性。