金融政策,KDI,2004年11月至2008年2月,财务发展咨询委员会成员,财政与经济部(MOFE)(MOFE)2004年9月 - 2004年8月 - 宏观经济和财务监督咨询委员会成员,金融监督和财务监督服务咨询委员会,2003年8月2003年8月 - 2004年8月2004年8月2004年8月2004年8月2004年8月,KDI -KD -KD,2003年8月,KD,KD,KD,KD,2003年8月,KD,KD 2002年,夏威夷大学的2002年,夏威夷大学,1998年5月 - 2000年7月2000年7月,总统基姆·达(Kim Dae-Jung)总统政策计划咨询委员会,1999年1月至2000年6月,宏观经济政策研究部,KDI 1992年1月 - 1992年1月 - 1992年1月至1993年1月,对项目的短期顾问,对Eastia inia as assian afia inia insia insia insia: 1990年8月 - 2008年2月,KDI,1996年8月 - 1996年12月,在东亚研究所的访问教授,
通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。
[P3] Kyungmin Lee , Jesse Choe, David Eia, Juqang Li, Junganges Zhao, Ming She, Junzhang Ma, Mengu Yao, Zhenu Wang, Cheen-Lung Hunger, Masuki Ochi, Ryotaro Ariter, Utpal Chathargee, Emilia Morosan, Vidyaro Chatharge, Emilia, Ehilia,Ethane,Vidha和Nandini Trivedi“通过狭窄的运输通道的新兴网络在Pt掺杂的Tise 2 Draven中的金属到绝缘体过渡”,NPJ Quantum Mater。 6,8(2021)。6,8(2021)。