摘要 - 真实的硬件PLC非常昂贵,有时科学家/工程师无法建立小型测试床并进行实验或学术研究。为此,OpenPLC项目引入了合理的替代选项,并在编程代码,模拟物理过程以及使用低成本设备(例如Raspberry Pi和Arduino uno)中提供了灵感。不幸的是,OpenPLC项目的设计没有任何安全性,即缺乏保护机制,例如加密,授权,反复制算法等。这使攻击者可以完全访问OpenPLC并进行未经授权的更改,例如启动/停止PLC,设置/更新密码,删除/更改用户程序等。在本文中,我们进行了深入的调查,并披露了OpenPLC项目中存在的一些漏洞,表明攻击者既没有对用户凭据,也不对物理过程进行任何先验知识;可以访问关键信息,并有效地更改OpenPLC执行的用户程序。我们所有的实验均在最新版本的OpenPLC(即V3)上进行。我们的实验结果证明,攻击者可能会混淆受感染的OpenPLC控制的物理过程。最后,我们建议OpenPLC创始人和工程师关闭所披露的漏洞并具有更安全的基于OpenPLC的环境的安全建议。索引条款 - OpenPlc;网络攻击;网络安全;控制逻辑注射攻击;
○攻击者知道目标是一个控制系统,因此量身定制攻击策略,目的是损害控制下的身体系统○尽管物理攻击已经闻名,但现在的网络攻击已经越来越多地被剥削,因为它们便宜,因为它们的范围很长,它们的范围很长,并且很容易复制和协调,但实际上没有攻击,
摘要:在未来十年内,为了应对高度互联和数字化的世界所产生的大量信息,对自动化、智能数据处理和预处理的需求预计将会增加。在过去的几十年里,现代计算机网络、基础设施和数字设备的复杂性和互联性都在增长。保护这些资产的网络安全人员面临着越来越多的攻击面和不断改进的攻击模式。为了管理这一点,网络防御方法开始依赖于支持人类工作的自动化和(人工智能)。然而,机器学习 (ML) 和人工智能 (AI) 支持的方法不仅已集成到网络监控和端点安全产品中,而且几乎无处不在涉及持续监控、复杂或大量数据的任何应用中。智能 IDS、自动化网络防御、网络监控和监视以及安全软件开发和编排都是依赖 ML 和自动化的资产的例子。由于这些应用对社会的重要性,恶意行为者对这些应用非常感兴趣。此外,ML 和 AI 方法还用于数字助理、自动驾驶汽车、人脸识别应用等所使用的视听系统中。已经报道了针对视听系统 AI 的成功攻击媒介。这些攻击范围从需要很少的技术知识到劫持底层 AI 的复杂攻击。
与其前代产品一样,梭子鱼计划的 SNA 配备了核推进装置,使其具有非凡的航程和自由度。它们比上一代核动力潜艇速度更快、更耐用、用途更广泛,具备部署特种部队和使用海军巡航导弹打击数百公里外的陆地目标的新功能。它们代表着技术的飞跃,使法国能够继续留在实施现代、高效国民账户体系的少数国家俱乐部中。
研究指南,Acharya Nagarjuna 大学。摘要 对于所有规模的组织和 ISP,有史以来最具破坏性的攻击都是 DDoS 攻击 (分布式拒绝服务)。由于 DDoS 出租服务的可用性提高,数十亿不安全的僵尸网络和 IoT 设备的产生导致 DDoS 攻击增加。这些 DDoS 攻击的频率、规模和复杂程度不断增加。由于这些攻击日益智能化以及 IDS 的逃避,包括清理和基于签名的检测在内的传统方法受到了挑战。由于攻击规模主要集中在组织上,下一代安全技术无法跟上步伐。由于对人为干预的要求较高,基于异常的检测在误报和准确率方面存在各种限制。本文利用机器学习(ML)模型,基于开放的CICIDS2017数据集进行了DDoS异常检测。但是,使用该ML模型并精心调整超参数可以达到最大准确率。关键词:DDoS攻击,异常检测,机器学习,入侵检测系统,准确性。
基于状态的签名(HBS)方案的标准化始于2018年和2019年的IETF RFC的出版物IETF RFCS的扩展Merkle签名方案(XMSS)和基于Leighton-Micali Hash的签名(LMS)的出版物[8],[8],[11]。2020年,美国国家标准技术研究所(NIST)发表了进一步推荐的参数[7]。德国联邦信息安全办公室(BSI)在自己的出版物中指定了这两种算法[5]。自从其标准化以来,已将状态HBS算法部署在多种产品中,从嵌入式设备到服务器[3],[6],[12]。由于其固有的状态,可以使用密钥对创建的签名数量有限,这也限制了应用程序的范围。实际上,它们最适合验证很少更改的数据的完整性和真实性,例如嵌入式设备的固件。然后进行验证过程,然后在安全的启动或固件更新过程中进行。在过去的工作中,研究界已经调查了此用例[9],[10],[15],[17]的硬件和软件优化,并且供应商带来了前进的产品[12]。
近年来,检测变形人脸图像的任务变得非常重要,以确保基于人脸图像的自动验证系统(例如自动边境控制门)的安全性。基于深度神经网络 (DNN) 的检测方法已被证明非常适合此目的。然而,它们在决策过程中并不透明,而且不清楚它们如何区分真实人脸图像和变形人脸图像。这对于旨在协助人类操作员的系统尤其重要,因为人类操作员应该能够理解其中的推理。在本文中,我们解决了这个问题,并提出了聚焦分层相关性传播 (FLRP)。该框架在精确的像素级别向人类检查员解释深度神经网络使用哪些图像区域来区分真实人脸图像和变形人脸图像。此外,我们提出了另一个框架来客观地分析我们方法的质量,并将 FLRP 与其他 DNN 可解释性方法进行比较。该评估框架基于移除检测到的伪影并分析这些变化对 DNN 决策的影响。特别是,如果 DNN 的决策不确定甚至不正确,与其他方法相比,FLRP 在突出显示可见伪影方面表现得更好。
摘要 — 单独增强单个深度学习模型的鲁棒性只能提供有限的安全保障,尤其是在面对对抗性示例时。在本文中,我们提出了 DeSVig,这是一个去中心化的 Swift Vigilance 框架,用于识别工业人工智能系统 (IAIS) 中的对抗性攻击,使 IAIS 能够在几秒钟内纠正错误。DeSVig 高度去中心化,提高了识别异常输入的有效性。我们尝试使用特殊指定的移动边缘计算和生成对抗网络 (GAN) 来克服由行业动态引起的超低延迟挑战。我们工作最重要的优势是它可以显着降低被对抗性示例欺骗的失败风险,这对于安全优先和延迟敏感的环境至关重要。在我们的实验中,工业电子元件的对抗样本由几种经典的攻击模型生成。实验结果表明,DeSVig 比一些最先进的防御方法更强大、更高效、更具可扩展性。