Loading...
机构名称:
¥ 1.0

JIPA 已成为传播国土防御相关知识和见解的重要平台。在我们应对战略竞争的复杂性时,本期所收录的国土防御文章阐明了印度太平洋地区不断演变的威胁及其对国土防御战略的影响。从分析北极行动到了解地缘政治变化,JIPA 提供了宝贵的观点,为我们保卫北美本土提供了参考。通过强调全球安全挑战的相互关联性,它强调了跨部门和跨地区合作以有效保卫我们国土的必要性。因此,JIPA 是政策制定者、军事领导人和国土防御领域从业人员的重要资源。

前言

前言PDF文件第1页

前言PDF文件第2页

相关文件推荐

2024 年
¥7.0
2025 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2024 年
¥3.0
2018 年
¥6.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2012 年
¥25.0
2011 年
¥5.0
2023 年
¥4.0
2021 年
¥1.0
2021 年

通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。

¥1.0