人工智能(AI),机器学习和数据挖掘技术BT及其(生物信息学)的整合生物医学大数据,尤其是图形和网络分析化学和网络分析化学和AI药物发现中,我的研究领域的重点是开发深度学习/机器学习模型,用于分析图形结构数据和多组学领域的生物学和化学信息学和化学知识学和化学信息。重点是建模生物体的生物学元素作为图的形式,或建模包含子图和3D信息的分子图。应用程序包括可解释的生物信息学深度学习模型,具有多词分析的计算生物学,生物网络中的子路挖掘,分子财产预测和药物反应预测。
• 荣誉论文讨论会协调员(16 年秋季 - 20 年春季) • 终身教职人员咨询委员会(15 年秋季-) • 优秀人员咨询委员会(16、15 年秋季) • 高级研讨会委员会(19 年秋季) • 系主任搜索委员会(15 年秋季) • 研究方法委员会(15 年秋季) • 国际事务 (INTA) 重大修订计划委员会(14 年秋季) • IR 终身教职教员搜索委员会(12 年秋季) • IR 讲师搜索委员会(11 年秋季) • 最佳论文奖委员会(18、17、15、14、12、11 年春季) • 环境管理委员会(10 年春季)
通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。
咨询委员会 Prof. P.K.Mandal,印度北孟加拉大学 Prof. A. Saxena,印度东北山大学 Prof. P.K.Patra,印度东北山大学 Dr. S. Tamang,印度锡金大学 Dr. A. E. Aly,El Salam Hig.研究所埃及工程与技术学院 Prof.(已退休)R.K. Thapa,印度米佐拉姆大学 Prof. R. Khenata,阿尔及利亚马斯卡拉大学 Prof. S. Bin Omran,沙特阿拉伯沙特国王大学 Dr. R. Sharma,印度库奇比哈尔 CBPBU
咨询委员会 Prof. P.K.Mandal,印度北孟加拉大学 Prof. A. Saxena,印度东北山大学 Prof. P.K.Patra,印度东北山大学 Dr. S. Tamang,印度锡金大学 Dr. A. E. Aly,El Salam Hig.研究所埃及工程与技术学院 Prof.(已退休)R.K. Thapa,印度米佐拉姆大学 Prof. R. Khenata,阿尔及利亚马斯卡拉大学 Prof. S. Bin Omran,沙特阿拉伯沙特国王大学 Dr. R. Sharma,印度库奇比哈尔 CBPBU