Loading...
机构名称:
¥ 7.0

在我们迎来过去的一年之际,我们展望了大学在新校长选举的推动下将进一步发展,我们很高兴与大家分享我们在努力中取得的进展。我们对国际化、绿色技术和负责任材料的开发关注,这塑造了研究、教学和我们的第三项使命的新战略。在我们的部门内,我们认识到材料在科学研究和教育计划中的关键作用。新的本科学习计划“材料科学与技术”的成功推出标志着一个重要的里程碑,该计划以创新课程为特色,让学生从第一学期开始就接触到材料特定内容。该计划为我们参与欧洲材料学院 (EEIGM) 奠定了基础,该学院涉及欧洲六个材料科学部门,旨在激励学生应对材料科学的全球挑战。国际硕士课程“先进材料科学与工程 - AMASE”已于秋季迎来首批毕业,并成为我们部门教育计划不可或缺的一部分。我们部门值得一提的是两个新的 Christian Doppler 实验室。 CD-Lab“基于知识的先进钢设计”专注于研究废料使用量增加以及由此产生的不良杂质和微量元素对钢性能的影响。CD-Lab“晶体生长的先进计算设计”开发了改进晶体生长过程的计算方法,重点是碳化硅。我们的部门还通过购买高端设备扩展了其能力,包括用于超快速烧制 3D 打印陶瓷的新型火花等离子烧结系统、用于在低温下进行微观和纳米力学测试的低温纳米压痕仪,以及两台能够在微观和中观尺度上进行跨尺度疲劳测试的小型测试设备。在莱赫阿尔贝格举行的第二届材料科学研讨会重点关注“计算材料科学”,来自德国和美国的国际演讲者出席了会议。我们在莱奥本举办了第 7 届“先进陶瓷断口分析”会议、第 7 届“年轻陶瓷家增材制造”(yCAM)、第 57 届金相学会议以及第 20 届“合金元素对迁移界面影响研讨会”。我们还在塞高组织了第 93 届 IUVSTA 研讨会,主题是“表面工程结构、涂层和薄膜表征方面的进展”。我们为我们的年轻研究生获得的多个会议奖项以及我们的研究人员获得的杰出认可感到自豪。我们在《Materials Today Advances》、《Journal of Materials Chemistry A》、《Advanced Materials》、《Advanced Science》、《Nature Communications》或《Communications Materials》等著名期刊上发表了大量文章,强调了我们部门在 2023 年的高质量研究活动。我们衷心感谢我们的研究人员、学生和工业合作伙伴的坚定支持和持续的动力,以共同应对未来的挑战。我们邀请您欣赏以下页面,概述了我们部门在 2023 年的活动。

前言

前言PDF文件第1页

前言PDF文件第2页

前言PDF文件第3页

前言PDF文件第4页

前言PDF文件第5页

相关文件推荐

2025 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2024 年
¥3.0
2024 年
¥1.0
2018 年
¥6.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2012 年
¥25.0
2011 年
¥5.0
2023 年
¥4.0
2021 年
¥1.0
2021 年

通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。

¥1.0