摘要。本文研究了如何将小信息泄漏(称为“提示”)纳入信息集解码(ISD)算法。特别是,分析了这些提示对求解(N,K,T)的影响 - 综合征 - 解码问题(SDP),即对长度为n,尺寸K和重量t误差的通用综合征解码。我们通过在基于代码后的量子后加密系统上通过现实的侧向通道来获得所有提示。一类研究的提示包括对错误或消息的部分知识,这些知识允许使用问题的适当转移来减少长度,维度或错误权重。作为第二类提示,我们假设已知误差的锤子权重,可以通过模板攻击来激励。我们提供了此类泄漏的改编的ISD算法。对于每个基于第三轮代码的NIST提交(Classic McEliece,Bike,HQC),我们显示每种类型需要多少个提示来将工作因素降低到要求的安全水平以下。,例如,对于经典的McEliece McEliece348864,对于175个已知消息条目,9个已知错误位置,650个已知的无错误位置或已知的锤击权重的29个子块的尺寸约为大小相等。
模型反转 [1] 和模型提取(窃取)攻击 [2] 是先进的对抗技术,可危及机器学习 (ML) 模型的安全和隐私。这些攻击从模型中提取敏感信息,例如训练数据和超参数。出于对日益增长的安全和隐私问题的担忧,文献中研究了越来越多的 ML-as-a-service 系统,这些系统提供使用机密数据训练的 ML 模型以及这些模型的可公开访问的查询界面。对黑盒 AI 模型可解释性的研究引发了一个新的研究课题可解释人工智能 (XAI) [3]。XAI 旨在描述难以被人类理解的 AI 模型的内部工作原理,以便可以描述模型的准确性、公平性、透明度和结果 [4]。其中一种方法是局部可解释模型不可知解释 (LIME) [5],它通过围绕该样本生成局部替代数据集来识别给定样本的最重要特征(影响 AI 的决策)。通过结合 XAI 产生的额外漏洞,可以增强对抗性 ML 攻击的能力。因此,我们提出了一种名为 AUTOLYCUS 的新型模型提取攻击,它使用来自 LIME 的模型解释来生成比最先进的攻击更少的查询,以揭示决策树模型的决策边界,并将这些边界提取到本地训练的代理模型。AUTOLYCUS 还可以从其他资源获得的样本中获取信息。这些资源可能包括先前采样的查询和其他数据集。我们演示
为了确保在实际系统中加固学习的有用性(RL),确保它们对噪声和对抗性攻击至关重要。在对抗RL中,外部攻击者有能力操纵受害者与环境的互动。我们研究了整个在线操纵攻击,其中包括(i)国家攻击,(ii)观察攻击(这是对状态的概括),(iii)行动攻击和(iv)奖励攻击。我们表明了攻击者设计的隐形攻击问题,该攻击最大化了其自身的预期奖励,通常与最小化受害者的价值相对应,这是由马尔可夫·德克尼(Markov DeSision)过程(MDP)捕获的,我们称之为元MDP,因为它不是真实的环境,而是通过攻击互动所带来的更高级别的环境。我们表明,攻击者可以通过在多项式时间进行计划或使用Standard RL技术进行多项式样本复杂性来得出最佳攻击。我们认为,可以将受害者的最佳防御政策计算为对Stochastic Stackelberg游戏的解决方案,可以将其进一步简化为基于部分的基于转弯的随机游戏(POTBSG)。攻击者和受害者都不会从各自的最佳政策中受益,因此这种解决方案确实很健壮。尽管防御问题是NP-HARD,但我们表明在许多情况下,可以在多项式时间(样本复杂性)中计算(学习)最佳的马尔可夫防御。
大规模的预训练模型越来越多地通过称为及时学习的新范式来适应下游任务。与微调相比,及时学习不会更新预训练的模型的参数。相反,它仅学习输入扰动,即提示,以添加到下游任务数据中以进行预测。鉴于迅速学习的快速发展,由于使用了巨大的努力和专有数据来创建它,因此不可避免地将良好的及时化成为有价值的资产。这自然提出了一个问题,即提示是否会泄露其培训数据的专有信息。在本文中,我们对通过财产推理和成员推理攻击的视觉提示学习的提示进行了首次全面的隐私评估。我们的经验评估表明,提示很容易受到两种攻击的影响。我们还证明,对手可以以有限的成本进行成功的推理攻击。此外,我们表明,通过放松的对抗性假设,针对提示的会员推理攻击可以成功。我们进一步对防御措施进行了一些初步调查,并观察到我们的方法可以减轻成员的推论,并以体面的公用事业防御权衡取舍,但未能防御财产推理攻击。我们希望我们的结果能够阐明流行的及时学习范式的隐私风险。为了促进这一方向的研究,我们将与社区分享我们的代码和模型。1
模型反转 [1] 和模型提取(窃取)攻击 [2] 是先进的对抗技术,可危及机器学习 (ML) 模型的安全和隐私。这些攻击从模型中提取敏感信息,例如训练数据和超参数。出于对日益增长的安全和隐私问题的担忧,文献中研究了越来越多的 ML-as-a-service 系统,这些系统提供使用机密数据训练的 ML 模型以及这些模型的可公开访问的查询界面。对黑盒 AI 模型可解释性的研究引发了一个新的研究课题可解释人工智能 (XAI) [3]。XAI 旨在描述难以被人类理解的 AI 模型的内部工作原理,以便可以描述模型的准确性、公平性、透明度和结果 [4]。其中一种方法是局部可解释模型不可知解释 (LIME) [5],它通过围绕该样本生成局部替代数据集来识别给定样本的最重要特征(影响 AI 的决策)。通过结合 XAI 产生的额外漏洞,可以增强对抗性 ML 攻击的能力。因此,我们提出了一种名为 AUTOLYCUS 的新型模型提取攻击,它使用来自 LIME 的模型解释来生成比最先进的攻击更少的查询,以揭示决策树模型的决策边界,并将这些边界提取到本地训练的代理模型。AUTOLYCUS 还可以从其他资源获得的样本中获取信息。这些资源可能包括先前采样的查询和其他数据集。我们演示
在[6],[7]中,我们通过模仿一些著名的古典方案以及[8],[9]等新方案,在“热带”环境中使用热带代数作为加密计划的平台。的意思是,我们分别替换了加法和乘法的通常操作,分别用操作最小(x,y)和x + y代替。使用热带代数作为平台的一个明显优势是无与伦比的效率,因为在热带方案中,由于热带乘法是通常的增加,因此不必执行任何数字的效率,请参见第2节。另一方面,即使这种元素是热带代数上的矩阵,元素的“热带力量”也可能表现出一些模式。在[11]中利用了这种弱点,以对[6]中的一个方案进行相当成功的攻击。在本文中,我们使用一种使用单变量多项式的热带代数的数字签名方案。该方案中公共密钥的安全性是基于分解单变量热带多项式的计算硬度。已知此问题是NP-HARD,请参见[10]。由于我们论文的第一个版本[3]于2023年9月在线发布,因此Panny [12]以及Brown and Monico [1]对我们的计划进行了几次伪造攻击。Brown和Monico还对Panny的At-Tacs进行了轻松的补丁,但提到他们没有找到任何方法来防止自己的伪造攻击。在我们的原始预印本[3]的更新版本中,我们考虑了Brown and Monico(来自[1]和非正式交流)
虽然高级机器学习(ML)模型在许多现实世界应用中都构建了,但以前的工作表明这些模型具有安全性和隐私性漏洞。在该领域已经进行了各种经验研究。但是,大多数实验都是对安全研究人员本身训练的目标ML模型进行的。由于对具有复杂体系结构的高级模型的高度计算资源需求,研究人员通常选择使用相对简单的架构在典型的实验数据集中培训一些目标模型。我们争辩说,要全面了解ML模型的漏洞,应对具有各种目的训练的大型模型进行实验(不仅是评估ML攻击和防御的目的)。为此,我们建议使用具有Inter-Net(公共模型)权重的公开模型来评估ML模型上的攻击和防御。我们建立了一个数据库,即具有910个注释的图像分类模型的数据库。然后,我们分析了几种代表性的AT-TACS/防御能力的有效性,包括模型窃取攻击,会员推理攻击以及对这些公共模型的后门检测。我们的评估从经验上表明,与自训练的模型相比,这些攻击/防御措施的性能在公共模型上可能有很大差异。我们与研究社区1分享了SCURITY N ET,并倡导研究人员在公共模型上进行实验,以更好地证明其未来所提出的方法的有效性。
机器学习(ML)模型在面对隐私攻击时可以公开培训数据的私人信息。具体来说,对ML-AS-AS-Service平台访问的恶意用户可以通过查询ML模型来重建培训数据(即模型反转攻击)或推断成会员信息(即成员资格推论)。尽管需要有效地防止使用Black-Box访问来防御隐私攻击,但现有方法主要集中于通过修改模型培训过程或模型预测过程来增强ML模型的强大范围。这些防御可能会损害模型实用性,并需要基础AI平台(即平台依赖性)的合作。这些约束在很大程度上限制了现有防御的现实适用性。尽管普遍着重于改善模型的强大功能,但现有的作品都没有集中于通过实时检测隐私泄漏来持续保护已经部署的ML模型免于隐私攻击。考虑到如今的ML-AS-Service平台的大量部署,这项防御任务变得越来越重要。为了弥合差距,我们提出了Privmon,这是一种基于ML模型的实时隐私攻击检测的新型系统。为了促进广泛的适用性和实践性,Privmon以平台 - 不合Snostic的方式为Black-Box ML模型防御广泛的隐私攻击:仅Privmon只有Passips-Passipsions Monitors模型查询而无需模型所有者或AI平台的合作。具体来说,私人将ML模型查询的输入作为输入,并提供有效的攻击
密码学可以确保我们的在线互动,交易和信任。为了实现这一目标,理论上还需要确保加密原始图和协议,而且还需要由加密图书馆开发人员在实践中安全地实施。然而,即使对于熟练的专业人员来说,可以安全地实施加密算法也很具有挑战性,这可能会导致脆弱的实施,尤其是侧向通道。为了定时攻击,这是一类严重的侧向通道,存在多种工具,这些工具应帮助加密图书馆开发人员评估其代码是否容易受到时机攻击的影响。先前的工作已经确定,尽管有兴趣编写恒定时间代码,但Cryp-tographic Library开发人员由于总体上缺乏可用性而不会通常使用这些工具。然而,影响这些工具可用性的确切因素仍然不可能。尽管许多工具是在学术背景下开发的,但我们认为值得探索有助于或阻碍其有效使用的因素,而加密图书馆开发人员有效使用[61]。为了评估验证恒定访问性(CT)工具的可用性的原因和损害,我们对24个(后)研究生参与者进行了两部分可用性研究,这些工具跨越了6种工具,这些工具跨越了近似现实世界中用用案例的工具。我们发现,所有研究工具都受到不同程度的类似的US能力问题的影响,没有工具在可用性方面出色,并且可用性问题阻止了它们有效使用。根据我们的结果,我们建议有效验证CT的有效工具需要可用的文档,简单的安装,易于调整的示例,清晰的输出与CT viomelations相对应,以及最小的无创型标记。,我们通过文档,示例和安装脚本1以有限的学术资源来贡献第一步。
一场活动,至少需要三 (3) 名引座员、一名 (1) 穿制服的警察和一名 (1) 名内部 PAC 安保人员。 场地入口 生产人员通常将从建筑物后门进入。中心的任何活动都需要在指定入口处安排门卫,具体由管理层决定。 停车 请参阅停车政策(附件 E)。杜克能源中心周围的停车场和甲板提供现行停车费率。装卸码头停车(装卸除外)严禁停车,违反规定者将被拖走,费用由车主承担。请参阅附件 F 和附件 G 了解停车地图和其他详细信息。对于超大车辆,请咨询生产主管或前台经理以获取停车位置的说明。装饰 未经制片主管事先批准,任何时候都不得在场地、墙壁或走廊上放置装饰品或设备,也不得在墙壁、门、栏杆或木制品上用钉子、大头钉、螺丝或胶带固定任何标牌。 剧场内禁止油漆、染色或进行任何其他布景处理。 大楼内绝不允许悬挂氦气球。 *禁止在 RMA 阳台或楼梯上悬挂横幅。 大堂布置 必须提前与前厅经理安排桌子、椅子、裙板、画架或相关物品。 食物和饮料 任何时候都不允许在舞台上或控制室内饮食。 吸烟 整座建筑都是禁止吸烟的设施。 电话和互联网 在大多数区域,可以根据客户的需求签订电话和高速数据线路合同。 送货和取货 所有送货都必须与制片主管安排。活动结束后,所有相关设备和材料必须移走。活动结束后留在建筑物内的任何物品都将被处理掉。消耗品杜克能源中心可以提供硬件、木材、凝胶、胶带、办公用品或其他消耗品,但需额外付费。特殊效果任何烟火效果都需要许可证,可代表客户获得。请至少提前两周通知,并提供一张显示预期效果位置和类型的图表。客户将