大脑计算机接口(BCI)可以在大脑和外部设备之间进行直接通信。电子脑电图(EEG)是BCIS的常见输入信号,因为它的便利性和低成本。对基于EEG的BCIS的大多数研究都集中在EEG信号的准确解码上,同时忽略其安全性。最近的研究表明,BCIS中的机器学习模型容易受到对抗攻击的影响。本文提出了对基于EEG的BCI的基于对抗过滤的逃避和后门攻击,这非常容易实施。在不同BCI范式的三个数据集上进行了实验,证明了我们提出的攻击方法的效果。据我们所知,这是对基于脑电图的BCI的对抗过滤的第一项研究,提出了新的安全问题,并呼吁更多地关注BCIS的安全性。
大型语言模型(LLMS)弥合了人类语言理解与复杂问题解决问题之间的差距,在几个NLP任务上实现了最先进的性能,尤其是在几次射击和零照片的设置中。尽管LLMS具有明显的功效,但由于对计算资源的限制,用户必须使用开源语言模型或将整个培训过程外包给第三方平台。但是,研究表明,语言模型容易受到潜在的安全漏洞的影响,尤其是在后门攻击中。后门攻击旨在通过中毒训练样本或模型权重,将目标漏洞引入语言模型中,从而使攻击者能够通过恶意触发器来操纵模型响应。尽管对后门攻击的现有调查提供了全面的概述,但他们缺乏对专门针对LLM的后门攻击的深入检查。为了弥合这一差距并掌握该领域的最新趋势,本文通过专注于微调方法,介绍了对LLM的后门攻击的新观点。具体来说,我们将后门攻击系统地分类为三类:全参数微调,参数效率微调和没有微调1。基于大量审查的见解,我们还讨论了未来关于后门攻击的研究的关键问题,例如进一步探索不需要微调或开发更多秘密攻击算法的攻击算法。
1. 规避:修改输入以影响模型的攻击,例如对图像进行修改以影响分类。此技术可用于规避模型在下游任务中正确分类情况。2. 模型中毒:对手可以训练性能良好的机器学习模型,但包含后门,当输入包含对手定义的触发器的输入时,会产生推理错误。可在推理时利用此后门模型进行规避攻击。3. 训练数据:修改训练数据的攻击会添加另一个后门,例如,训练数据中不可察觉的模式会创建可以控制模型输出的后门。4. 提取:窃取专有模型的攻击,例如,攻击可以定期对模型发起查询,以提取有价值的信息来揭示其属性。5. 推理:获取有关私人数据的信息的攻击,例如,攻击。
后门攻击是对深度神经网络 (DNN) 模型的严重威胁,攻击者使用带有触发器的输入 (例如补丁) 来激活预先植入的恶意行为。触发器反演是识别后门模型和理解嵌入式对抗行为的有效方法。触发器反演的挑战在于构造触发器的方法有很多种。现有方法无法通过做出某些假设或特定于攻击的约束来推广到各种类型的触发器。根本原因是现有工作在制定反演问题时没有考虑触发器的设计空间。这项工作正式定义并分析了注入不同空间的触发器和反演问题。然后,它基于触发器的形式化和从我们的分析中识别出的后门模型的内部行为,提出了一个统一的框架来反演后门触发器。我们的原型 UNICORN 具有通用性,并且能够有效地反转 DNN 中的后门触发器。代码可在 https://github.com/RU-System-Software-and-Security/UNICORN 找到。
木马(后门)攻击是针对深度神经网络的一种对抗性攻击,攻击者向受害者提供一个在恶意数据上训练/再训练的模型。当正常输入带有某种称为触发器的模式时,后门就会被激活,从而导致错误分类。许多现有的木马攻击的触发器是输入空间块/对象(例如,纯色多边形)或简单的输入转换,如 Instagram 滤镜。这些简单的触发器容易受到近期后门检测算法的影响。我们提出了一种新颖的深度特征空间木马攻击,具有五个特点:有效性、隐蔽性、可控性、鲁棒性和对深度特征的依赖。我们对包括 ImageNet 在内的各种数据集上的 9 个图像分类器进行了大量实验,以证明这些特性,并表明我们的攻击可以逃避最先进的防御。
• 后门 - 后门是一种典型的绕过正常身份验证来访问系统或应用程序的隐蔽方法。 • SolarWinds Orion - 一种网络和应用程序基础设施监控工具,用于识别、警告和报告设备、应用程序和网络性能问题。 • 供应链攻击 - 威胁行为者将恶意代码插入合法软件的组件中,软件公司在不知情的情况下将受感染的代码分发给软件用户。
摘要 — 由 NXP 开发和授权的 MIFARE Classic 智能卡被广泛使用,但多年来遭受了无数攻击。尽管推出了新版本,但这些卡仍然存在漏洞,即使在仅限卡的情况下也是如此。2020 年,中国领先的未经授权的“MIFARE 兼容”芯片制造商发布了 MIFARE Classic 的新变体 FM11RF08S。此变体具有旨在阻止所有已知的仅限卡攻击的特定对策,并正在逐渐在全球获得市场份额。在本文中,我们介绍了有关 FM11RF08S 的几种攻击和意外发现。通过实证研究,我们发现了一个硬件后门并成功破解了其密钥。此后门可让任何知晓它的实体在无需事先知情的情况下,通过访问卡几分钟即可破解这些卡上的所有用户定义密钥。此外,我们对旧卡的调查发现了另一个硬件后门密钥,该密钥在多家制造商中很常见。
摘要 - 强化学习(RL)使代理商从与环境的互动期间收集的试验经验中学习。最近,离线RL已成为流行的RL范式,因为它可以节省与环境的交互。在离线RL中,数据提供商共享大型预计数据集,而其他人可以在不与环境互动的情况下训练高质量的代理。此范式在机器人控制,自动驾驶等关键任务中表现出了有效性。但是,对调查离线RL系统的安全威胁的关注更少。本文重点介绍了后门攻击,其中将一些扰动添加到数据(观察)中,以便给定正常观察,代理采取了高奖励动作,并且对注入触发器注入的观察结果进行了低奖励动作。在本文中,我们提出了B Affle(用于离线执行学习的后门攻击),这种方法通过毒化离线RL数据集自动植入后门来植入RL代理,并评估不同的离线RL算法对此攻击的反应。我们对四个任务和九个离线RL算法进行的实验表明了令人不安的事实:现有的脱机RL算法都不对这种后门攻击免疫。更具体地说,B Affle修改了10%的数据集(3个机器人控制和1个自主驾驶)。在中毒数据集中受过训练的代理在正常设置中表现良好。但是,当出现触发器时,代理的性能会大大降低63。2%,53。9%,64。7%和47。平均四个任务中的4%。在干净的数据集上微调中毒代理后,后门仍然持续。我们进一步表明,流行的防御方法也很难检测到插入后的后门。本文呼吁关注开放源离线RL数据集更有效的保护。
一个非拟合组织计划开放分类器F,但希望通过将水印直接嵌入模型中来检测其使用。爱丽丝的任务是创建此水印。鲍勃的目的是使F在对手方面稳健,即确保很难找到看起来不奇怪但会导致F犯错误的查询。两个面临挑战:爱丽丝努力创建无法消除的水印,而鲍勃的防御措施变得越来越复杂。他们发现自己的项目已连接。爱丽丝的想法是在F中种植一个后门[1,2],使她能够用隐藏的扳机来制作查询,该扳机激活后门,导致F错误分类,从而检测到F的使用。鲍勃的方法涉及平滑F以增强鲁棒性,这无意中消除了此类后门[2]。他们意识到自己的挑战是同一枚硬币的两个方面:一项任务的不可能可以保证另一个任务的成功。