1 本节概述的针对新出现的危害的威胁破坏计划是由 Meta 的一个多学科团队开发和启动的,其中包括领导这项工作的 Artemis Seaford 和 Alberto Fittarelli。
1 本节概述的针对新出现的危害的威胁破坏计划是由 Meta 的一个多学科团队开发和启动的,其中包括领导这项工作的 Artemis Seaford 和 Alberto Fittarelli。
对抗训练是一种鲁棒性模型来防止对抗攻击的流行方法。但是,它表现出比在干净输入的训练要严重得多的。在这项工作中,我们从培训实例的角度(即训练输入目标对)研究了这种现象。基于训练集中实例相对困难的定量度量,我们分析了该模型在不同难度水平的训练实例上的行为。这使我们证明,对抗训练的概括性能衰减是拟合硬对抗实例的结果。我们从理论上验证了线性和一般非线性模型的观察结果,证明了在硬实例上训练的模型的概括性能要比在简单实例上接受培训的模型要差,并且这种概括差距随着对抗性预算的规模而增加。最后,我们调查了在几种情况下减轻对抗性过度插入的解决方案,包括快速的对抗训练和使用其他数据进行预处理的模型。我们的结果表明,使用训练数据可自动提高模型的鲁棒性。
摘要:在机器学习领域,确保对抗攻击的鲁棒性越来越重要。对抗性训练已成为强化模型免受此类漏洞的重要战略。该项目提供了对抗性训练及其在加强机器学习框架弹性中的关键作用的全面概述。我们深入研究了对抗训练的基本原理,阐明了其基本机制和理论基础。此外,我们调查了在对抗训练中使用的最新方法和技术,包括对抗性示例生成和培训方法。通过对最近的进步和经验发现进行彻底的研究,我们评估了对抗性训练在增强各种领域和应用跨机器学习模型的鲁棒性方面的有效性。此外,我们应对挑战并确定这个新兴领域的开放研究途径,为未来的发展奠定了旨在增强机器学习系统在现实世界情景中的安全性和可靠性的基础。通过阐明对抗性训练的复杂性及其对强大的机器学习的影响,本文有助于促进对维护人工智能不断发展的环境中的对抗性威胁至关重要的理解和应用。关键字:对抗性培训,鲁棒性,SGD,模型增强
一个非拟合组织计划开放分类器F,但希望通过将水印直接嵌入模型中来检测其使用。爱丽丝的任务是创建此水印。鲍勃的目的是使F在对手方面稳健,即确保很难找到看起来不奇怪但会导致F犯错误的查询。两个面临挑战:爱丽丝努力创建无法消除的水印,而鲍勃的防御措施变得越来越复杂。他们发现自己的项目已连接。爱丽丝的想法是在F中种植一个后门[1,2],使她能够用隐藏的扳机来制作查询,该扳机激活后门,导致F错误分类,从而检测到F的使用。鲍勃的方法涉及平滑F以增强鲁棒性,这无意中消除了此类后门[2]。他们意识到自己的挑战是同一枚硬币的两个方面:一项任务的不可能可以保证另一个任务的成功。
数据增强对改善深度元学习的鲁棒性是有益的。然而,最近的深度元学习的数据预言方法仍然基于光度或几何操作或图像的组合。本文提出了一个生成的对抗自动说明网络(GA3N),用于扩大增强搜索空间并提高分类精度。要实现,我们首先使用gans扩展了图像增强的搜索空间。但是,主要的挑战是生成适合任务的图像。对于解决方案,我们通过优化目标和gan损失来找到最佳策略。然后,我们使用由策略网络确定的操纵和生成的样本作为改进目标任务的增强样本。为了显示我们的方法的效果,我们通过组合GA3N并在CIFAR-100和Tiny-ImageNet数据集上进行评估来实现分类网络。因此,我们比每个数据集上的最新自动说明方法获得了更好的准确性。
工作和工作场所的未来瞬息万变。关于人工智能 (AI) 及其对工作的影响,已经有大量文章进行了探讨,其中大部分集中在自动化及其对潜在失业的影响上。本篇评论将讨论一个领域,即人工智能被添加到创意和设计从业者的工具箱中,以提高他们的创造力、生产力和设计视野。设计师的主要目的是在给定一组约束的情况下创建或生成最优的工件或原型。随着生成网络,尤其是生成对抗网络 (GAN) 的出现,我们已经看到人工智能侵入了这一领域。过去几年来,这一领域已成为机器学习中最活跃的研究领域之一,其中许多技术,尤其是围绕可信图像生成的技术,已经引起了媒体的广泛关注。我们将超越自动化技术和解决方案,看看 GAN 如何融入设计从业者的用户流程中。 2015 年至 2020 年,对 ScienceDirect、SpringerLink、Web of Science、Scopus、IEEExplore 和 ACM DigitalLibrary 上索引的出版物进行了系统性审查。结果根据 PRISMA 声明报告。从 317 个搜索结果中,审查了 34 项研究(包括两个滚雪球抽样),重点介绍了该领域的主要趋势。介绍了这些研究的局限性,特别是缺乏用户研究以及玩具示例或不太可能扩展的实现的盛行。还确定了未来研究的领域。
1. 规避:修改输入以影响模型的攻击,例如对图像进行修改以影响分类。此技术可用于规避模型在下游任务中正确分类情况。2. 模型中毒:对手可以训练性能良好的机器学习模型,但包含后门,当输入包含对手定义的触发器的输入时,会产生推理错误。可在推理时利用此后门模型进行规避攻击。3. 训练数据:修改训练数据的攻击会添加另一个后门,例如,训练数据中不可察觉的模式会创建可以控制模型输出的后门。4. 提取:窃取专有模型的攻击,例如,攻击可以定期对模型发起查询,以提取有价值的信息来揭示其属性。5. 推理:获取有关私人数据的信息的攻击,例如,攻击。
Yazhou Tu、Zhiqiang Lin、Insup Lee、Xiali Hei。“注入和交付:通过欺骗惯性传感器制造对驱动系统的隐式控制。”USENIX 安全研讨会。2018 年。
摘要 如果提供足够的数据,人工智能 (AI) 在脑部 MRI 方面的性能可以提高。生成对抗网络 (GAN) 显示出巨大的潜力,可以生成能够捕捉真实 MRI 分布的合成 MRI 数据。此外,GAN 还广泛用于脑部 MRI 图像的分割、噪声消除和超分辨率。本范围界定审查旨在探索文献中报道的 GAN 方法如何用于脑部 MRI 数据。本审查描述了 GAN 在脑部 MRI 中的不同应用,介绍了最常用的 GAN 架构,并总结了公开可用的脑部 MRI 数据集,以推进基于 GAN 的方法的研究和开发。本审查遵循 PRISMA-ScR 的指导方针进行研究搜索和选择。搜索是在五个流行的科学数据库上进行的。两名独立审阅者对研究进行筛选和选择,然后由第三名审阅者进行验证。最后,使用叙述方法合成数据。本综述共纳入了 789 个搜索结果中的 139 项研究。GAN 最常见的用例是合成脑 MRI 图像以进行数据增强。GAN 还用于分割脑肿瘤并将健康图像转换为患病图像或将 CT 转换为 MRI,反之亦然。纳入的研究表明,GAN 可以提高用于脑 MRI 成像数据的 AI 方法的性能。然而,需要付出更多努力才能将基于 GAN 的方法转化为临床应用。关键词:人工智能、数据增强、生成对抗网络、磁共振成像、医学成像