木马(后门)攻击是针对深度神经网络的一种对抗性攻击,攻击者向受害者提供一个在恶意数据上训练/再训练的模型。当正常输入带有某种称为触发器的模式时,后门就会被激活,从而导致错误分类。许多现有的木马攻击的触发器是输入空间块/对象(例如,纯色多边形)或简单的输入转换,如 Instagram 滤镜。这些简单的触发器容易受到近期后门检测算法的影响。我们提出了一种新颖的深度特征空间木马攻击,具有五个特点:有效性、隐蔽性、可控性、鲁棒性和对深度特征的依赖。我们对包括 ImageNet 在内的各种数据集上的 9 个图像分类器进行了大量实验,以证明这些特性,并表明我们的攻击可以逃避最先进的防御。
抗疟疾耐药性是打击全球疟疾传播的迫切问题。在一项新的研究中,费城儿童医院(CHOP)的研究人员发现了一个关键过程,其中疟疾寄生虫占据了人类血细胞酶,这可以为抗疟疾治疗提供新的方法。这些发现发表在《美国国家科学院》杂志上,提供了有关如何设计药物的新见解,这些药物更有效地治疗受这种毁灭性传染病影响的患者。
摘要 - 供应链漏洞为攻击者提供了将硬件木马植入系统 - 芯片(SOC)设计的机会。虽然基于机器学习(ML)的特洛伊木马检测是有希望的,但它具有三个实际局限性:(i)可能无法获得黄金模型,(ii)缺乏人类专业知识来选择Trojan特征,并且(iii)有限的可传递性可能会导致在新的基准标准中无法获得未观察的Trojans的新基准标准。虽然基于转移学习的最新方法解决了其中一些问题,但仍需要重新训练以使用特定于域特异性(例如,硬件特洛伊木马功能)知识对模型进行微调。在本文中,我们提出了一个利用零射击学习来应对上述挑战的特洛伊木马检测框架。所提出的框架采用了自我监督学习的概念,其中利用预训练的图形卷积网络(GCN)来提取有关硬件Trojans的下划线常识,而指标学习任务用于衡量测试输入和恶意样本之间的相似性来进行分类。广泛的实验评估表明,与最先进的技术相比,我们的方法具有四个主要优势:(i)在特洛伊木马检测过程中不需要任何黄金模型,(ii)可以处理未知的特洛伊木马和未见的基准测试,而不会更改网络的任何变化,(iii)培训时间和(iv)的估计效率的显着提高(iv)的均值提高效率显着(iv)的均值(10.5%)(10.5%)5%(10.5%)。5%(10.5%)。
合成至少 5 g PET/TH - 至少 15 kDa - 分解为至少 25 wt % 单体。 - 至少 1 g 回收的单体/低聚物将重新聚合至至少 1 kDa(通过 GPC)并通过 DSC 进行表征。
摘要 集成电路(IC)产业的全球化引发了对硬件木马(HT)的担忧,迫切需要有效的门级网表 HT 检测方法。在本文中,我们提出了一种基于图学习的门级木马节点检测方法。该方法不需要任何黄金模型,可以轻松集成到集成电路设计流程中。此外,我们进一步设计了一个联合 GNN 网络,将有向图的输入端、输出端和邻居端的信息结合起来,生成代表性节点嵌入。实验结果表明,在不同设计中,它可以达到平均 93.4% 的召回率、91.4% 的 F 度量和 90.7% 的准确率,优于最先进的 HT 检测方法。 关键词:硬件木马检测,图神经网络,无黄金参考,门级网表 分类:集成电路
当今集成电路 (IC) 供应链的全球化带来了许多硬件安全问题。其中一个主要问题是硬件木马 (HT) 被纳入部署在安全关键和任务关键型系统中的 IC [1], [2]。HT 是对 IC 的故意恶意修改,旨在泄露有价值的数据、降低性能或导致完全故障,即拒绝服务。HT 可以在不同阶段插入片上系统 (SoC),例如由不受信任的 EDA 工具提供商、不受信任的 IP 供应商、插入测试访问机制的不受信任的 SoC 集成商或不受信任的代工厂插入。从攻击者的角度来看,目标是设计一个可以逃避光学逆向工程的最小占用空间 HT,以及在罕见条件下激活并隐藏在工艺变化范围内的隐身 HT,从而逃避通过传统制造测试检测。 HT 设计由两部分组成,即触发器和有效载荷机制。可能的 HT 种类繁多,从简单到非常复杂的攻击模式不等。最简单的 HT 是组合电路,用于监控一组节点,在罕见节点条件同时发生时生成触发器,随后,一旦触发器被激活,有效载荷就会翻转另一个节点的值。更复杂的 HT 包括硅磨损机制 [3]、隐藏侧通道 [4]、改变晶体管有源区域中的掺杂剂极性 [5]、从受害线路中抽取电荷 [6] 等。从防御者的角度来看,根据插入 HT 的阶段,有几种途径可以提供针对 HT 的弹性。对策可以分为硅前和硅后 HT 检测和信任设计 (DfTr) 技术。硅前 HT 检测技术包括功能验证和形式验证。硅片后 HT 检测技术包括光学逆向工程、旨在通过应用测试向量来揭示 HT 的功能测试,以及旨在通过 HT 对参数测量(即延迟、功率、温度等)的影响来揭示 HT 的统计指纹识别。DfTr 技术包括
† 我们与 ChatGPT(2023 年 3 月 23 日版本)合作撰写了这篇文章。我们这样做的部分原因是为了研究学者和人工智能如何合作创作学术论文。虽然该系统对文本做出了重大贡献,但我们根据主要科学出版商 Springer Nature 的建议将其从作者名单中删除。请参阅 ChatGPT 等工具威胁透明科学;以下是我们使用它们的基本规则,613 N ATURE 612(2023 年),https://www.nature.com/articles/d41586-023-00191-1 [https://perma.cc/5VHC-ST6N](“没有 LLM 工具会被接受为研究论文的署名作者。这是因为任何作者归属都伴随着对工作的责任,而人工智能工具不能承担这样的责任。”)。撰写这篇文章在一定程度上是对一种新形式学术创作的实验。因此,我们上述描述的过程可能无意中遗漏了同事发表的一些作品。我们恳请他们原谅我们实验性写作方法造成的任何遗漏。尽管如此,我们还是尝试在实验范围内尽可能地纳入相关参考资料。实现此目标的一种策略是将我们文章的早期草稿发布在 SSRN 上供任何人审阅。
©版权所有2024,Trojan Technologies Group ulc。Viqua,Arros,Tidal,Polodrotect和Stream是Trojan Technologies Group ULC的商标。本出版物中描述的产品可以受到美利坚合众国,加拿大和/或其他国家的一项或多项专利的保护。[04082024]