Loading...
机构名称:
¥ 3.0

摘要 — 人工智能 (AI) 模型的“黑箱”性质一直是其在关键应用中使用时引起许多担忧的根源。可解释人工智能 (XAI) 是一个快速发展的研究领域,旨在创建能够为其决策和行动提供清晰且可解释的解释的机器学习模型。在网络安全领域,XAI 有可能彻底改变我们处理网络和系统安全的方式,使我们能够更好地了解网络威胁的行为并设计更有效的防御措施。在本次调查中,我们回顾了网络安全 XAI 的最新进展,并探讨了为解决这一重要问题而提出的各种方法。审查遵循了网络和数字系统中的网络安全威胁和问题的系统分类。我们在网络安全背景下讨论了当前 XAI 方法的挑战和局限性,并概述了未来研究的有希望的方向。

网络可解释人工智能调查...

网络可解释人工智能调查...PDF文件第1页

网络可解释人工智能调查...PDF文件第2页

网络可解释人工智能调查...PDF文件第3页

网络可解释人工智能调查...PDF文件第4页

网络可解释人工智能调查...PDF文件第5页

相关文件推荐