Loading...
机构名称:
¥ 3.0

6 北约尚未就网络威胁达成统一定义;然而,最常见的定义之一是任何可能通过未经授权的访问、破坏、披露、修改信息和/或拒绝服务等方式,对组织运营(包括使命、职能、形象或声誉)、组织资产、个人、其他组织或国家造成不利影响的情况或事件。(美国国家标准与技术研究所 (NIST) - 计算机安全资源中心 (CSRC))

前言

前言PDF文件第1页

前言PDF文件第2页

前言PDF文件第3页

前言PDF文件第4页

前言PDF文件第5页

相关文件推荐

2024 年
¥7.0
2025 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2024 年
¥1.0
2018 年
¥6.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2012 年
¥25.0
2011 年
¥5.0
2023 年
¥4.0
2021 年
¥1.0
2021 年

通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。

¥1.0