本论文的工作是在国家科学研究中心(LAAS-CNRS)系统分析与架构实验室进行的。我首先要对我自 1988 年加入 LAAS 以来的历任董事 Alain Costes 和 Jean-Claude Laprie 先生表示深深的谢意,感谢他们的欢迎和对我的信任。我要特别感谢Jean-Claude Laprie在他负责的“容错和计算机操作安全”(TSF)小组中欢迎我加入,并指导和指导我的工作。通过与他密切合作,特别是在可靠性增长建模和具有明确操作安全性的开发模型的定义方面,我能够从他的广泛技能中受益。我很感谢他能够指导我的工作,感谢他能够给我的建议和批评,也感谢他为我提供了理想的环境来开展我的研究,并与国家和世界科学界进行交流。高水平国际化。他的活力、严谨和对完美的追求是我继续走这条道路的巨大动力。我保留对卡拉马·卡农(Karama Kanoun)的友好和荣幸的提及,因为他在我的博士论文期间指导了我的工作,并密切关注了本论文的准备工作。我们的亲密伙伴
摘要 - 机器学习的新兴领域(ML)和量子机器学习(QML)在解决各个领域的复杂问题方面具有巨大的潜力。但是,在将这些系统部署在安全敏感的应用中时,它们对对抗性攻击的敏感性会引起人们的关注。在这项研究中,我们对ML和QML模型的脆弱性,特别是常规神经网络(NN)和量子神经网络(QNN)进行了比较分析,以使用恶意软件数据集进行对抗攻击。我们利用一个称为夹具的软件供应链攻击数据集,并为QNN和NN开发了两个不同的模型,并采用Pennylane实现了Quantylane,而Tensorflow和Keras进行了传统实现。我们的方法涉及通过将随机噪声引入数据集的一小部分来制作对抗样本,并使用准确性,精度,召回和F1得分指标评估模型性能的影响。根据我们的观察结果,ML和QML模型均表现出对对抗攻击的脆弱性。与攻击后的NN相比,QNN的准确性降低了,但在精确和召回方面表现出更好的性能,表明在对抗条件下检测真正的阳性时的弹性更高。我们还发现,为一种模型类型制定的对抗样品会损害另一种模型的性能,从而强调了对强大的防御机制的需求。我们的研究是未来研究的基础,着重于增强ML和QML模型(尤其是QNN)的安全性和弹性,鉴于其最近的进步。面对对抗性攻击,将进行更广泛的实验,以更好地了解这两种模型的性能和鲁棒性。
我们将从真实图像分布 q ( · ) 中 (近似) 采样的任务视为一系列去噪问题。更准确地说,给定一个样本 x 0 ∼ q ( · ) ,扩散过程逐步添加噪声以生成样本 x 1 , ..., x T 进行 T 步,其中 x t +1 = a t x t + b t ε t ,并且 ε t 从高斯分布 2 中采样。请注意,因此,当 T →∞ 时,样本 x T 开始遵循标准正态分布 N (0 , I )。现在,如果我们逆转此过程,并且能够在给定 x t +1 的情况下对 x t 进行采样,即对 x t +1 进行去噪,我们最终可以从 q ( · ) 生成新样本。这只需从 x T ∼N (0 , I ) 开始(这对应于 T 足够大),然后对这些样本进行 T 步迭代去噪,即可生成新图像 ˜ x ∼ q ( · )。
威胁行为者使用恶意软件来损害个人和公司。由于其适应性,恶意软件是最普遍的网络攻击形式。例如,网络攻击可以从简单的病毒到复杂的勒索软件操作。在这场永无止境的猫捉老鼠游戏中,恶意软件作者设计出越来越复杂的策略来绕过系统防御,而网络安全专业人员、防御系统设计人员和端点保护开发人员则设计出改进的方法来识别这些新策略。本论文的目的是帮助个人和企业了解恶意软件目前和将来的样子,如何逃避系统保护措施并隐藏自己不被分析。由于混淆技术是逃避和隐藏分析的重要方法之一,理论研究着眼于各种混淆技术、系统防御这些技术的能力以及未来创新的可能性。论文的研究结果强调,需要理解现有恶意软件技术的实施方法,以了解当前安全措施的局限性以及研究恶意软件代码和预测其未来发展的挑战。由于恶意软件作者总是领先于安全开发人员一步,因此实现全面保护并预测新威胁具有挑战性,甚至是不可能的。
使用 SNMP 协议访问路由器 2021 年,APT28 使用基础设施伪装简单网络管理协议 (SNMP) 访问全球的思科路由器。其中包括少数位于欧洲的路由器、美国政府机构和大约 250 名乌克兰受害者。SNMP 旨在允许网络管理员远程监控和配置网络设备,但它也可能被滥用来获取敏感的网络信息,如果存在漏洞,还可以利用设备渗透网络。许多软件工具可以使用 SNMP 扫描整个网络,这意味着不良配置(例如使用默认或易于猜测的社区字符串)可能会使网络容易受到攻击。弱的 SNMP 社区字符串(包括默认的“public”)允许 APT28 获取路由器信息的访问权限。APT28 发送了额外的 SNMP 命令来枚举路由器接口。[T1078.001] 被入侵的路由器配置为接受 SNMP v2 请求。 SNMP v2 不支持加密,因此所有数据(包括社区字符串)都是以未加密形式发送的。利用 CVE-2017-6742 APT28 利用了漏洞 CVE-2017-6742(Cisco Bug ID:CSCve54313)[T1190]。思科于 2017 年 6 月 29 日首次公布了此漏洞,并发布了修补软件。思科发布的公告提供了解决方法,例如仅限制受信任主机对 SNMP 的访问,或禁用多个 SNMP 管理信息库 (MIB)。恶意软件部署
因此,我们请几位顶级专家回答三个热门问题,这些问题与一个让许多关注这场战争的分析人士感到震惊的情景有关:克里姆林宫兑现其威胁并在冲突中使用核武器。他们权衡了普京迈出这一决定性一步的可能性、他可能会如何做以及西方可能会如何回应。
摘要 - 填充学习(FL)是机器学习越来越流行的方法(ML),在培训数据集高度分布的情况下。客户在其数据集中执行本地培训,然后将更新汇总到全球模型中。现有的聚合协议要么效率低下,要么不考虑系统中恶意参与者的情况。这是使FL成为隐私敏感ML应用的理想解决方案的主要障碍。我们提出E LSA,这是FL的安全聚合协议,它打破了此障碍 - 它是有效的,并解决了其设计核心的恶意参与者的存在。与PRIO和PRIO+的先前工作类似,E LSA提供了一种新颖的安全聚合协议,该协议是由两台服务器构建的,只要一台服务器诚实,捍卫恶意客户端,并且是有效的端到端。与先前的工作相比,E LSA中的区别主题是,客户不是交互产生加密相关的服务器,而是在不损害协议安全性的情况下充当这些相关性的不受信任的经销商。与先前的工作相比,这导致了更快的协议,同时还可以实现更强的安全性。我们引入了新技术,即使服务器是恶意的,在运行时的较小成本为7-25%,而对于半honest服务器的情况,通信的增加而言可以忽略不计。我们的工作改善了先前工作的端到端运行时,具有相似的安全保证的大幅度保证 - 单格聚集器ROFL最多305 x(对于我们考虑的模型),并最多分配了8 x。
所有组织都应向 CISA 的 24/7 运营中心报告事件和异常活动,地址为 report@cisa.gov 或 (888) 282-0870。请提供以下与事件相关的信息(如有):事件的日期、时间和地点;活动类型;受影响人数;活动所用设备类型;提交公司或组织的名称;以及指定联系人。如需满足 NSA 客户要求或一般网络安全咨询,请联系 Cybersecurity_Requests@nsa.gov。州、地方、部落和领土政府实体也可以向 MS-ISAC(SOC@cisecurity.org 或 866-787-4722)报告。本文件标记为 TLP:CLEAR。披露不受限制。当信息具有最小或没有可预见的滥用风险时,信息来源可以使用 TLP:CLEAR,并遵守适用的公开发布规则和程序。根据标准版权规则,TLP:CLEAR 信息可以不受限制地分发。有关交通灯协议的更多信息,请参阅 cisa.gov/tlp/。
在雷德利·斯科特 (Ridley Scott) 80 年代早期的科技黑色杰作中,洛杉矶警察局的里克·德卡德 (Rick Deckard) 有一项任务。他需要找到并“淘汰”四个复制人,他们劫持了一艘船,然后混入地球人类中寻找他们的创造者。像 Deckard 一样,银翼杀手武器库中的一个关键武器是 Voight-Kampff 测试 - 一系列提示,旨在引发反应,从而确定受访者是人类还是机器人,由人工智能引导。我们现在都是 - 在某种程度上 - 银翼杀手。随着使用自回归语言模型(如 GPT-3 和 GPT-3.5)的用户友好型工具的广泛发布,任何有互联网连接的人都可以访问可以在几秒钟内提供各种类似人类语音的机器人。这些模型生成的语言的速度和质量只会提高。而且改进可能会非常显著。这标志着历史上一个非凡的时刻。从 2022 年底开始,任何有知觉的生物(最终可能包括机器人)在遇到一段新文本时都可能会停下来问一个不那么简单的问题:这是机器人写的吗?好处还是危险,还是两者兼而有之 这一刻不仅仅是一个关于意识、社会和商业如何变化的有趣思想实验。我们识别机器生成行为的能力或无能可能会对我们容易受到犯罪的影响产生严重后果。从少量输入生成多功能自然语言文本将不可避免地引起犯罪分子,尤其是网络犯罪分子的兴趣——如果还没有的话。同样,任何使用网络传播诈骗、虚假新闻或错误信息的人可能都会对一种能够以惊人的速度创建可信甚至引人注目的文本的工具感兴趣。OpenAI 大型语言模型的广泛可用接口包括安全过滤器 1,旨在减少或消除潜在的有害用途。这些过滤器是基于 GPT 的分类器,可检测不需要的内容。公开可用的大型语言模型旨在成为有益的机器人。随着对这些模型的访问不断增长,我们需要考虑如何通过我们与人工智能互动传递文本的主要方式滥用这些模型:提示。
摘要:多年来,移动设备市场一直在快速增长,而由于这种趋势,移动恶意软件也变得越来越复杂。研究人员专注于恶意软件检测系统的设计和开发,以加强敏感和私人信息的安全性和完整性。在这种背景下,深度学习得到了利用,也应用于网络安全领域,展示了构建模型以检测应用程序是可信的还是恶意的的能力。最近,随着量子计算的引入,我们见证了量子算法在机器学习中的引入。在本文中,我们比较了五种最先进的卷积神经网络模型(即 AlexNet、MobileNet、EffficientNet、VGG16 和 VGG19)、作者开发的一个网络(称为 Standard-CNN)和两种量子模型(即混合量子模型和全量子神经网络)来对恶意软件进行分类。除了分类之外,我们还通过采用梯度加权类激活映射来突出显示从应用程序获得的图像中具有特定预测症状的区域,以及卷积和量子模型在 Android 恶意软件检测中获得最佳性能,从而提供模型预测背后的可解释性。在由 8446 个 Android 恶意和合法应用程序组成的数据集上进行了真实世界的实验,获得了有趣的结果。