随着视觉变换器 (ViT) 的巨大成就,基于变换器的方法已成为解决各种计算机视觉任务的新范式。然而,最近的研究表明,与卷积神经网络 (CNN) 类似,ViT 仍然容易受到对抗性攻击。为了探索不同结构模型的共同缺陷,研究人员开始分析跨结构对抗性迁移能力,而这方面仍未得到充分研究。因此,在本文中,我们专注于 ViT 攻击,以提高基于变换器和基于卷积的模型之间的跨结构迁移能力。先前的研究未能彻底调查 ViT 模型内部组件对对抗性迁移能力的影响,导致性能较差。为了克服这个缺点,我们开展了一项激励研究,通过线性缩小 ViT 模型内部组件的梯度来分析它们对对抗性迁移能力的影响。基于这项激励研究,我们发现跳跃连接的梯度对迁移能力的影响最大,并相信来自更深块的反向传播梯度可以增强迁移能力。因此,我们提出了虚拟密集连接方法(VDC)。具体来说,在不改变前向传播的情况下,我们首先重构原始网络以添加虚拟密集连接。然后,在生成对抗样本时,我们通过虚拟密集连接反向传播更深层注意力图和多层感知器(MLP)块的梯度。大量实验证实了我们提出的方法优于最先进的基线方法,ViT模型之间的可迁移性提高了8.2%,从ViT到CNN的跨结构可迁移性提高了7.2%。
最近基于激光雷达的 3D 物体检测 (3DOD) 方法显示出良好的效果,但它们通常不能很好地推广到源(或训练)数据分布之外的目标域。为了减少这种领域差距,从而使 3DOD 模型更具泛化能力,我们引入了一种新颖的无监督领域自适应 (UDA) 方法,称为 CMDA,它 (i) 利用来自图像模态(即相机图像)的视觉语义线索作为有效的语义桥梁,以缩小跨模态鸟瞰图 (BEV) 表示中的领域差距。此外,(ii) 我们还引入了一种基于自训练的学习策略,其中模型经过对抗性训练以生成领域不变特征,这会破坏对特征实例是来自源域还是看不见的目标域的区分。总的来说,我们的 CMDA 框架指导 3DOD 模型为新颖的数据分布生成高度信息丰富且领域自适应的特征。在我们对 nuScenes、Waymo 和 KITTI 等大规模基准进行的大量实验中,上述内容为 UDA 任务提供了显著的性能提升,实现了最先进的性能。
钦奈印度大学摘要:在本文中,我们建议将Cyclegan用于定制服装生成。Cyclegan是一种生成对抗网络(GAN),可以学习从一个域将图像映射到另一个域而不需要配对的训练数据。我们的目标是根据来自其他源域的现有图像生成新的,逼真的图像。我们提出了一种新颖的方法,该方法将Cyclean和使用一小部分配对数据结合在一起。我们的方法能够生成既现实又具有视觉吸引力的自定义服装,并具有高质量的细节和纹理。我们使用服装数据集评估了我们的方法,并证明它在图像质量和视觉相似性方面表现优于其他最先进的方法。索引条款 - Cyclean,Gan。
在本文中,我们应对基于离线手写的对比损失 - 十个签名验证模型的白盒假阳性对抗性攻击的挑战。我们采用了一种新颖的攻击方法,该方法将攻击视为紧密复制但独特的写作风格之间的样式转移。为了指导欺骗性图像的产生,我们引入了两个新的损失函数,通过扰动原始样品和合成样品的嵌入向量之间的欧几里得距离来提高抗差成功率,同时通过降低生成图像和原始图像之间的差异来确保最小的扰动。我们的实验证明了我们的方法在白框攻击基于对比度损失的白框攻击中的最新性能,这是我们的实验所证明的。与其他白色盒子攻击方法相比,本文的主要内容包括一种新颖的假积极攻击方法,两种新的损失功能,手写样式的有效风格转移以及在白盒子假阳性攻击中的出色性能。
摘要。这项研究展示了一种新的方法,用于使用生成对抗网络(GAN)有效地生成现实的合成道路状况数据。由于手动数据收集的挑战和危险,我们提议利用GAN来增加加速度计的现实世界道路状况数据。实际加速度计的数据已预处理,并用于训练含有卷积和致密层的gan。定性分析揭示了生成的道路状况数据的视觉现实主义。定量评估还证明了GAN的高精度,精度和召回得分超过0.9。总体而言,这项研究强调了使用gans合成安全至关重要的驾驶数据的希望,从而规定了对详尽的手动数据收集的需求。我们提出的框架可以在道路状况监测和自动驾驶中进行进一步的研究和应用。
简介。自主驾驶(AD)设想在没有人类干预的情况下导航我们的道路,要求高度的可靠性和安全性。AI在满足这些要求中起着至关重要的作用。将AI集成到AD系统中会引入新的挑战,包括基于AI的AD系统对对抗攻击的脆弱性。这些攻击利用了AI模型中的弱点,损害了它们做出准确决策的能力,这给AD生态系统的整体安全性和功能带来了重大风险。为了解决这个问题,许多先前的工作[2]是在对抗攻击和防御方面进行的。但是,许多研究都集中在数字设置和开放数据集围绕,这些数据集无法完全捕获现实世界情景的复杂性。另一方面,如果没有大量资金,实际实验通常是不可行的,并且会带来安全和道德问题。在本文中,我们提出了一种基于逼真的仿真方法,该方法解决了这一紧迫问题。我们开发了Carla-A3,这是一种工具包,重点是在使用Carla(https://carla.org/)创建的光真逼真的模拟中评估OD在存在对抗性攻击的情况下的鲁棒性。在进行这项研究之前,缺乏开源工具来评估OD对关键交通迹象的对抗性攻击的鲁棒性,尤其是在多样化天气条件下,在光真逼真的模拟中简化了对对抗性交通的创造,渲染和评估。我们的工作弥合了这一差距,并有助于开发测试程序,鲁棒性指标以及对增强AD系统中OD的安全性和可靠性至关重要的见解。
摘要 - 物理对对象 - 探测攻击对自动驾驶系统(ADS)引起了安全关注,并且是其广泛采用的重要障碍。为了增强广告解决此类问题的能力,我们旨在提出一个人类协作框架,以使人类进入循环以减轻攻击。在这项WIP工作中,我们研究了Yolo系列(Yolov5和Yolov8)中两个对象探测器的表现,以针对Carla模拟器中不同驾驶环境中的三种物理对对象弹性攻击。使用静态图像,我们发现Yolov8在攻击检测中通常超过了Yolov5,但在特定情况下仍然容易受到某些攻击的影响。研究结果表明,当考虑到系统级特征时,没有任何攻击在动态测试中取得了很高的攻击成功率。尽管如此,对于每种攻击,这种检测结果在不同位置的不同位置有所不同。总的来说,这些结果表明,自主驾驶中的感知(与手动驾驶中的人类感知相同)也可能依赖于上下文。此外,我们的结果揭示了人类驾驶员预期的制动距离处的对象检测故障,这表明有必要让人类驾驶员参与未来的评估过程。
本文档包含攻击分类并定义了讨论人工智能威胁时使用的关键术语。分类法和技术解释列表将这些威胁置于特定背景下,以提供易于理解和适用的层次结构,以及可供非金融部门实体使用的金融服务业相关文件。该分类法结合了现有文献和公共分类法,以与公共和已采用的替代方案保持一致 - 包括 NIST 对抗机器学习:攻击和缓解的分类和术语 1 - 以确保文献、报告和讨论的一致性,并为该主题的进一步工作奠定基础。但是,FS-ISAC 人工智能风险工作组的框架旨在全面涵盖金融部门实体面临的人工智能威胁,同时考虑目前发布的替代方案未涉及的其他风险。
摘要 - 对象检测是一个关键函数,可从传感器获取的数据中检测对象的位置和类型。在自主驾驶系统中,使用来自摄像机和激光镜头的数据进行对象检测,并根据结果,控制车辆以遵循最安全的路线。但是,据报道,基于机器学习的对象检测具有对对抗样本的脆弱性。在这项研究中,我们提出了一种新的攻击方法,称为LIDAR对象检测模型“ Shadow Hack”。虽然先前的攻击方法主要添加了扰动点云到激光雷达数据中,但在这项研究中,我们引入了一种在激光雷达点云上生成“对抗阴影”的方法。特别是,攻击者从战略上放置了诸如铝制休闲垫之类的材料,以在激光雷达点云上重现优化的位置和阴影的形状。该技术可能会在自动驾驶汽车中误导基于激光雷达的对象检测,从而导致诸如制动和避免操纵之类的行动导致交通拥堵和事故。我们使用仿真来重现Shadow Hack攻击方法,并评估攻击的成功率。此外,通过揭示攻击成功的条件,我们旨在提出对策并有助于增强自动驾驶系统的鲁棒性。
近年来,自动驾驶汽车发动机传感器攻击的风险引起了人们的显着关注。这些攻击操纵传感器读数,对基于机器学习模型的对象识别系统构成威胁。非常关注的是“ LiDAR SPOOFENG攻击”,它向欺骗传感器注入恶意信号以检测非易于或缺失的对象[1,2]。这些攻击目标传感器,数据处理和机器学习模型,强调了增强传感器安全性并增强模型鲁棒性的要求。本研究提出了一个新的使用LIDAR的传感系统的攻击矢量,以“ Shadow Hack”,目的是应对其威胁并开发有效的对策。此攻击的概念在于利用激光雷达传感器捕获的点云数据中自然形成的“阴影”(见图1)。LIDAR传感器产生指示对象存在的点云数据,但该数据还包括对象后面形成的阴影。通常,这些阴影在对象检测模型的输出中被忽略,但是它们的存在为对象检测提供了重要的线索。影子黑客通过故意创建它们来欺骗对象检测系统并导致它们出现故障来利用“阴影”的属性。例如,通过放置“阴影材料”,例如在环境中,可以在激光雷达传感器捕获的点云数据中创建误差阴影,从而导致对象检测模型检测不存在的对象(请参见图2)。