摘要 - 对象检测是一个关键函数,可从传感器获取的数据中检测对象的位置和类型。在自主驾驶系统中,使用来自摄像机和激光镜头的数据进行对象检测,并根据结果,控制车辆以遵循最安全的路线。但是,据报道,基于机器学习的对象检测具有对对抗样本的脆弱性。在这项研究中,我们提出了一种新的攻击方法,称为LIDAR对象检测模型“ Shadow Hack”。虽然先前的攻击方法主要添加了扰动点云到激光雷达数据中,但在这项研究中,我们引入了一种在激光雷达点云上生成“对抗阴影”的方法。特别是,攻击者从战略上放置了诸如铝制休闲垫之类的材料,以在激光雷达点云上重现优化的位置和阴影的形状。该技术可能会在自动驾驶汽车中误导基于激光雷达的对象检测,从而导致诸如制动和避免操纵之类的行动导致交通拥堵和事故。我们使用仿真来重现Shadow Hack攻击方法,并评估攻击的成功率。此外,通过揭示攻击成功的条件,我们旨在提出对策并有助于增强自动驾驶系统的鲁棒性。
将机器学习 (ML) 技术集成到车载自组织网络 (VANET) 中,可为自动驾驶和 ITS 应用提供有前景的功能。本文使用 DSRC 数据来评估不同 ML 模型(包括朴素贝叶斯、随机森林、KNN 和梯度提升)在正常和对抗场景中的有效性。由于数据集相对不平衡,因此采用合成少数过采样技术 (SMOTE) 进行采样,并采用防御性蒸馏来提高模型对对抗性扰动的弹性。从结果中可以清楚地看出,梯度提升和随机森林等模型在两种情况下都表现出很高的准确性,从而表明在出现新威胁时使用机器学习来提高 VANET 安全性和可靠性的潜力。通过这项研究,阐明了 ML 在保护车辆通信方面的应用对于提高交通安全和流量的重要性。
这份 NIST 可信和负责任的 AI 报告制定了对抗性机器学习 (AML) 领域的概念分类法并定义了术语。该分类法建立在对 AML 文献的调查基础之上,并按概念层次结构排列,其中包括主要类型的 ML 方法和攻击的生命周期阶段、攻击者的目标和目的以及攻击者的能力和学习过程知识。该报告还提供了相应的方法来减轻和管理攻击的后果,并指出了在 AI 系统生命周期中需要考虑的相关开放挑战。报告中使用的术语与 AML 文献一致,并辅以词汇表,该词汇表定义了与 AI 系统安全相关的关键术语,旨在帮助非专业读者。总之,分类法和术语旨在通过建立对快速发展的 AML 格局的共同语言和理解,为评估和管理 AI 系统安全性的其他标准和未来实践指南提供信息。
•系统上下文图:显示与系统相互作用的用户和外部实体。•容器图:这将系统表示为相互交互的一组独立服务。•组件图:将每个容器分解为详细信息到详细的组件,作为功能块执行特定任务的功能。•代码图:描述每个组件的实现,使用uml uml uml uml duagram andity duagram duagram andity duagram duagram andity duagram duagram andity duagurape andity die tie diagragram andity die diagumal diagumals andity diabes。
近年来,自动驾驶汽车发动机传感器攻击的风险引起了人们的显着关注。这些攻击操纵传感器读数,对基于机器学习模型的对象识别系统构成威胁。非常关注的是“ LiDAR SPOOFENG攻击”,它向欺骗传感器注入恶意信号以检测非易于或缺失的对象[1,2]。这些攻击目标传感器,数据处理和机器学习模型,强调了增强传感器安全性并增强模型鲁棒性的要求。本研究提出了一个新的使用LIDAR的传感系统的攻击矢量,以“ Shadow Hack”,目的是应对其威胁并开发有效的对策。此攻击的概念在于利用激光雷达传感器捕获的点云数据中自然形成的“阴影”(见图1)。LIDAR传感器产生指示对象存在的点云数据,但该数据还包括对象后面形成的阴影。通常,这些阴影在对象检测模型的输出中被忽略,但是它们的存在为对象检测提供了重要的线索。影子黑客通过故意创建它们来欺骗对象检测系统并导致它们出现故障来利用“阴影”的属性。例如,通过放置“阴影材料”,例如在环境中,可以在激光雷达传感器捕获的点云数据中创建误差阴影,从而导致对象检测模型检测不存在的对象(请参见图2)。
数据增强对改善深度元学习的鲁棒性是有益的。然而,最近的深度元学习的数据预言方法仍然基于光度或几何操作或图像的组合。本文提出了一个生成的对抗自动说明网络(GA3N),用于扩大增强搜索空间并提高分类精度。要实现,我们首先使用gans扩展了图像增强的搜索空间。但是,主要的挑战是生成适合任务的图像。对于解决方案,我们通过优化目标和gan损失来找到最佳策略。然后,我们使用由策略网络确定的操纵和生成的样本作为改进目标任务的增强样本。为了显示我们的方法的效果,我们通过组合GA3N并在CIFAR-100和Tiny-ImageNet数据集上进行评估来实现分类网络。因此,我们比每个数据集上的最新自动说明方法获得了更好的准确性。
一些研究论文研究了基于 ML 的 IDS 面对对抗性攻击的脆弱性,但其中大多数集中在基于深度学习的分类器上。与它们不同,本文更加关注浅层分类器,由于它们的成熟度和实现的简单性,它们仍然广泛用于基于 ML 的 IDS。更详细地,我们评估了 7 种基于浅层 ML 的 NIDS 的鲁棒性,包括 Adaboost、Bagging、梯度提升 (GB)、逻辑回归 (LR)、决策树 (DT)、随机森林 (RF)、支持向量分类器 (SVC) 以及深度学习网络,以抵御几种在最先进技术 (SOA) 中广泛使用的对抗性攻击。此外,我们应用高斯数据增强防御技术并测量其对提高分类器鲁棒性的贡献。我们使用 NSL-KDD 基准数据集 [5] 和 UNSW-NB 15 数据集 [50] 在不同的场景中进行了广泛的实验。结果表明,攻击对所有分类器的影响并不相同,分类器的稳健性取决于攻击,并且必须根据网络入侵检测场景考虑性能和稳健性之间的权衡。
摘要 — 生理计算实时使用人类生理数据作为系统输入。它包括或与脑机接口、情感计算、自适应自动化、健康信息学和基于生理信号的生物识别技术有显著重叠。生理计算增加了从用户到计算机的通信带宽,但也容易受到各种类型的对抗性攻击,攻击者故意操纵训练和/或测试示例来劫持机器学习算法输出,从而可能导致用户困惑、沮丧、受伤甚至死亡。然而,生理计算系统的脆弱性尚未得到足够的重视,也没有对针对它们的对抗性攻击进行全面的综述。本文填补了这一空白,系统地回顾了生理计算的主要研究领域、不同类型的对抗性攻击及其在生理计算中的应用,以及相应的防御策略。我们希望这篇评论能吸引更多人对生理计算系统脆弱性的研究兴趣,更重要的是,能提出防御策略,使它们更安全。
摘要 人类和其他动物无需大量教学就能学会从感官体验中提取一般概念。这种能力被认为是由睡眠等离线状态促进的,在这种状态下,先前的经历会被系统地重播。然而,梦的创造性特征表明,学习语义表征可能不仅仅是重播以前的经历。我们通过实现受生成对抗网络 (GAN) 启发的皮质架构来支持这一假设。我们模型中的学习跨三种不同的全局大脑状态组织,模拟清醒、非快速眼动 (NREM) 和 REM 睡眠,优化不同但互补的目标函数。我们在标准的自然图像数据集上训练模型并评估学习到的表征的质量。我们的结果表明,在 REM 睡眠期间通过对抗性做梦生成新的虚拟感官输入对于提取语义概念至关重要,而在 NREM 睡眠期间通过受干扰的做梦重播情景记忆可以提高潜在表征的稳健性。该模型为睡眠状态、记忆重放和梦境提供了一个新的计算视角,并提出了 GAN 的皮质实现。
神经网络容易对稍加修改的输入图像进行错误分类。最近,已经提出了许多防御措施,但没有一种能够持续提高神经网络的鲁棒性。在这里,我们建议使用对抗性攻击作为函数评估来搜索可以自动抵御此类攻击的神经架构。对文献中的神经架构搜索算法的实验表明,虽然它们准确,但它们无法找到鲁棒的架构。一个重要原因在于它们的搜索空间有限。通过创建一种新颖的神经架构搜索,其中包含密集层与卷积层连接的选项以及反之亦然,以及在搜索中添加连接层,我们能够进化出一种在对抗性样本上固有准确的架构。有趣的是,这种进化架构的固有鲁棒性可与对抗性训练等最先进的防御措施相媲美,同时仅在非对抗性样本上进行训练。此外,进化的架构利用了一些特殊的特性,这些特性可能有助于开发更强大的架构。因此,这里的结果证实了更强大的架构是存在的,并为神经网络的开发和探索开辟了一个新的可行性领域。