Loading...
机构名称:
¥ 2.0

摘要 近年来,随着深度学习 (DL) 算法的广泛应用,例如用于检测 Android 恶意软件或易受攻击的源代码,人工智能 (AI) 和机器学习 (ML) 在网络安全解决方案的开发中变得越来越重要。然而,与其他 DL 应用领域(例如计算机视觉 (CV) 和自然语言处理 (NLP))具有相同的基本限制,基于 AI 的网络安全解决方案无法证明结果(从检测和预测到推理和决策)并使人类可以理解。因此,可解释人工智能 (XAI) 已成为解决使人工智能模型对人类用户可解释或可解释的相关挑战的重要主题。它在网络安全领域尤其重要,因为 XAI 可以让每天被数以万计的安全警报(其中大部分是误报)淹没的安全操作员更好地评估潜在威胁并减少警报疲劳。我们对 XAI 与网络安全之间的交集进行了广泛的文献综述。具体来说,我们从两个角度调查现有文献:XAI 在网络安全中的应用(例如,入侵检测、恶意软件分类)和 XAI 的安全性(例如,对 XAI 管道的攻击、潜在的对策)。我们用文献中讨论过的几种安全属性来描述 XAI 的安全性。我们还提出了文献中未解答或未充分解决的开放性问题,并讨论了未来的研究方向。

可解释的人工智能网络安全

可解释的人工智能网络安全PDF文件第1页

可解释的人工智能网络安全PDF文件第2页

可解释的人工智能网络安全PDF文件第3页

可解释的人工智能网络安全PDF文件第4页

可解释的人工智能网络安全PDF文件第5页

相关文件推荐

2021 年
¥1.0
2021 年
¥1.0
2022 年
¥8.0
2022 年
¥1.0