Loading...
机构名称:
¥ 1.0

64. 从材料到数据的历史范式转变——当前的知识产权制度是否有效,或者我们是否需要特殊的保护? ,2019 年 4 月 10 日,国际会议“遗传资源数字测序 – 需要监管?”,veranstaltet vom Zentrum für Life Sciences- Recht (ZLSR) der Juristischen Fakultät der Universität Basel in Kooperative mit dem dem dem Schwedischen Patentamt(专利和注册办公室,PRV),瑞典斯德哥尔摩和der Weltorganization für Geistiges Eigentum(世界知识产权组织,WIPO),Genf,瑞士,巴塞尔大学,Juristsche Fakultät der(Tagungsleitung mit Patrick Andersson,PRV),巴塞尔

前言

前言PDF文件第1页

前言PDF文件第2页

前言PDF文件第3页

前言PDF文件第4页

前言PDF文件第5页

相关文件推荐

2024 年
¥7.0
2025 年
¥1.0
2024 年
¥3.0
2024 年
¥3.0
2024 年
¥1.0
2018 年
¥6.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2023 年
¥4.0
2012 年
¥25.0
2011 年
¥5.0
2023 年
¥4.0
2021 年
¥1.0
2021 年

通过分层相关性传播增强核电站 AI 模型的可解释性 Seung Geun Kim a*、Seunghyoung Ryu a、Hyeonmin Kim b、Kyungho Jin b、Jaehyun Cho ba 应用人工智能实验室/b 韩国原子能研究院风险评估与管理研究团队,韩国大田儒城区大德大路 989 号街 111,34057 * 通讯作者:sgkim92@kaeri.re.kr 1.简介 随着人工智能 (AI) 技术的快速发展,各个领域的应用数量巨大。核领域也紧跟这一趋势,许多研究利用 AI 模型解决事件诊断和自动/自主操作等问题。然而,占据近期 AI 技术应用最大份额的深度神经网络 (DNN) 具有不透明且可解释性低的局限性。对于基于 DNN 的模型,很难了解模型的内部逻辑或模型如何从给定的输入推断出输出。由于这一限制,尽管基于 DNN 的模型的性能可以接受,但人们对将其实际应用于安全关键领域和与道德/法律问题相关的领域仍犹豫不决。为了克服可解释性低的限制,已经提出了许多可解释的人工智能 (XAI) 方法。XAI 方法可以提供详细的解释,例如模型的内部逻辑和输入与输出之间的关系。然而,尽管可解释性问题对于安全关键的核领域至关重要,但缺乏处理 XAI 的研究。在本研究中,为了提高核领域人工智能模型的可解释性和实用性,研究了分层相关性传播 (LRP) [1],它是 XAI 方法之一,与其他 XAI 方法相比,它在许多应用中表现出更好的性能。论文的其余部分组织如下。在第 2 章中,对 XAI 和 LRP 进行了简要说明。第 3 章描述了可行性检查实验,第 4 章总结了本文。 2. 前言 2.1 可解释人工智能 可解释人工智能 (XAI) 是一种使人类轻松理解 AI 模型的技术。大多数 AI 模型在数据处理和解决问题的方法方面与人类不同。例如,AI 模型识别具有像素 RGB 值的图像,而人类则不能。提出 XAI 是为了减轻理解 AI 模型内部过程或推断某些输出的原因的难度。

¥1.0