围绕人工智能发展的绝大多数讨论都认为,与“人类价值观”相一致的屈从的“道德”模型是普遍有益的——简而言之,好的人工智能是谄媚的人工智能。我们探索了谄媚范式的阴影,我们将这种设计空间称为对抗性人工智能:令人不快、粗鲁、打断、对抗、挑战等人工智能系统——嵌入了相反的行为或价值观。对抗性人工智能系统远非“坏的”或“不道德的”,我们考虑的是,对抗性人工智能系统有时是否可能给用户带来好处,比如迫使用户面对他们的假设,建立适应力,或发展更健康的关系界限。通过形成性探索和推测性设计研讨会(参与者设计了采用对抗性的虚构人工智能技术),我们为对抗性人工智能布局了一个设计空间,阐明了潜在的好处、设计技术和将对抗元素嵌入用户体验的方法。最后,我们讨论了该领域的诸多伦理挑战,并确定了对抗性人工智能负责任设计的三个维度——同意、背景和框架。
潜在扩散模型(LDM)在图像生成中实现了最先进的性能,但提高了版权和隐私问题。对LDM的对抗性攻击是为了保护未经授权的图像免于在LDM驱动的几弹性生成中使用。但是,这些攻击遭受了中等的表现和过度的计算成本,尤其是在GPU内存中。在本文中,我们提出了对LDM的有效对抗性攻击,该攻击表现出了针对最先进的LDM的最先进的发电管道的卓越性能。我们通过引入多种机制并将攻击的内存成本降低到小于6GB,以记忆效率实现攻击,这使各个用户可以对大多数消费者GPU进行攻击。我们提出的攻击可能是面临LDM为保护自己带来的版权和隐私风险的人们的实用工具。
随机抽样是现代算法,统计和Ma-Chine学习中的基本原始性,用作获取数据的较小但“代表性”子集的通用方法。在这项工作中,我们研究了在流式设置中对自适应对手攻击的鲁棒性:对手将宇宙U的一系列元素传递到采样算法(例如Bernoulli采样或储层采样),并以“构成非常无用的”效果'nesprestation's repressented'nesperate'nesprestanter''对手是完全自适应的,因为它知道沿流的任何给定点的样本的确切内容,并且可以以在线方式选择下一个相应地发送的元素。静态设置中的众所周知的结果表明,如果提前选择完整的流(非适应性),则大小ω(d /ε2)的随机样本是具有良好概率的完整数据的εApproximation,其中D是d是基础设置系统的VC-dimension(u,r)。此样本量屈服于适应性对手的鲁棒性?简单的答案是负面的:我们演示了一个设定的系统,其中恒定样本大小(对应于1个的VC维度为1)在静态设置中,但是自适应对手可以使用简单的和易于实现的攻击。但是,此攻击是“仅理论上的”,要求设定的系统大小至(本质上)在流长中指数。这几乎与攻击施加的约束相匹配。这不是一个巧合:我们表明,为了使采样算法与自适应对手进行鲁棒性,所需的修改仅是在样本大小中替换VC差异项D中的VC差异项D,并用基数期限log | r |替换。 。也就是说,具有样本尺寸ω(log | r | /ε2)的Bernoulli和储层采样算法,即使在存在自适应对手的情况下,也有良好的可能性输出流的代表性样本。
本项目使用深度学习技术介绍了用于图像着色和文本对图像生成的Web应用程序。应用程序包括两个主要模块:图像着色,将黑白图像转换为颜色,以及文本到图像生成,该图像基于文本描述创建图像。用于图像着色,预先训练的深度神经网络模型可用于预测灰度图像的色彩信息。该模型是使用OpenCV的DNN模块实现的,并且能够准确恢复颜色为灰度图像。在文本到图像生成模块中,采用稳定的扩散管道来生成文本提示中的图像。本管道利用深度学习技术根据用户提供的文本描述来合成图像。Web应用程序提供了一个用户友好的接口,供用户上传图像以进行着色和输入文本提示以生成图像。处理后,应用程序将有色的图像或生成的图像返回给用户。总体而言,该项目展示了深度学习模型在增强视觉内容创建方面的潜力,并为用户提供了一种实用的应用程序,可以交互探索图像着色和文本驱动的图像生成。
对抗性攻击是一类分析神经网络参数以计算一系列导致错误分类的输入变化的技术。一个著名的例子是一只具有独特图案的 3D 打印海龟,这导致计算机视觉算法将其错误分类为步枪 (Athalye et al., 2018)。这些例子可能对操作环境中的 AI 系统的安全性和有效性构成重大威胁。如图 1 所示,对抗性攻击引起了研究界的广泛关注:2013 年至 2020 年间发表的数千篇论文致力于识别新的攻击载体并加强对它们的防御。尽管该领域的学术研究越来越多,但许多提出的对抗性攻击载体在现实世界中的相关性值得怀疑 (Gilmer et al., 2018)。简而言之,研究人员经常开发
cc/cs校正的成像允许使用最弹性和非弹性散射电子进行图像形成,而不会因单色而导致的光束强度损失。与成像能滤波器结合使用,可以使用等离子体 - 损坏或核心减脂电子形成原子分辨率EFTEM图像。对于原子分辨率滤波的TEM不仅需要对物镜的色差进行校正,而且成像能量滤波器的性能也必须满足主要是色变形和非异质性的条件。我们显示了用于大型能窗的原子分辨率的石墨烯的能量过滤透射电子显微镜(EFTEM)成像。以前的作品表现出与电离边缘信号(例如硅或钛的L 2,3边缘)的晶格对比[5,6]。然而,发现直接解释化学信息受到较厚样品的动态散射的弹性对比的贡献所阻碍。我们证明,即使在一个光原子薄样品的电离 - 边缘信号中也保留了弹性对比度 - 石墨烯 - 得出结论,任何原子分辨率EFTEM图像都无法用纯化学对比度来解释[7]。
摘要。随着自主着陆系统中深度学习技术的发展不断增长,面对可能的对抗性攻击,主要挑战之一是信任和安全。在本文中,我们提出了一个基于对抗性学习的框架,以使用包含干净本地数据及其对抗性版本的配对数据来检测着陆跑道。首先,本地模型是在大型车道检测数据集上预先训练的。然后,我们求助于预先训练的模型,而不是利用大实例 - 自适应模型,而是诉诸于一种称为比例和深度特征(SSF)的参数 - fne-fne-tuning方法。其次,在每个SSF层中,干净的本地数据及其广泛的广告版本的分布被列出,以进行准确的统计估计。据我们所知,这标志着联邦学习工作的frst实例,该工作解决了登陆跑道检测中对抗性样本问题。我们对降落方法跑道检测(猪油)数据集的合成和真实图像的实验评估始终证明了所提出的联邦对抗性学习的良好性能,并对对抗性攻击进行了鲁棒。
近年来,物联网设备的数量无疑呈爆炸式增长,达到数十亿台。然而,随着这一发展,一些新的网络安全问题也随之出现。其中一些问题是未经授权设备的部署、恶意代码修改、恶意软件部署或漏洞利用。这一事实促使人们需要基于行为监控的新设备识别机制。此外,由于该领域的进步和处理能力的提高,这些解决方案最近利用了机器和深度学习 (ML/DL) 技术。相比之下,攻击者并没有停滞不前,他们开发了针对上下文修改和 ML/DL 评估规避的对抗性攻击,并将其应用于物联网设备识别解决方案。然而,文献还没有详细分析这些攻击对个人识别解决方案的影响及其对策。这项工作探讨了基于硬件行为的个人设备识别的性能,它如何受到可能的上下文和 ML/DL 重点攻击的影响,以及如何使用防御技术提高其弹性。在这个意义上,它提出了一种基于硬件性能行为的 LSTM-CNN 架构,用于个人设备识别。然后,使用从运行相同软件的 45 台 Raspberry Pi 设备收集的硬件性能数据集,将最常见的 ML/DL 分类技术与所提出的架构进行了比较。LSTM-CNN 改进了以前的解决方案,在所有设备上实现了 +0.96 的平均 F1 分数和 0.8 的最低 TPR。之后,对之前的模型应用了以上下文和 ML/DL 为重点的对抗性攻击,以测试其稳健性。基于温度的上下文攻击无法破坏识别,但一些 ML/DL 最先进的逃避攻击是成功的。最后,选择对抗性训练和模型蒸馏防御技术来提高模型对逃避攻击的弹性,将其稳健性从高达 0.88 的攻击成功率提高到最坏攻击情况下的 0.17,而不会以有影响力的方式降低其性能。