Loading...
机构名称:
¥ 3.0

近年来,可解释人工智能 (XAI) 方法的实证评估文献越来越多。本研究通过对一组已建立的 XAI 方法在人工智能辅助决策中的效果进行比较,为这一持续的讨论做出了贡献。基于对先前文献的回顾,我们强调了理想的人工智能解释应该满足的三个理想属性——提高人们对人工智能模型的理解、帮助人们认识到模型的不确定性以及支持人们对模型的校准信任。通过三项随机对照实验,我们评估了四种常见的与模型无关的可解释人工智能方法是否在两种复杂程度不同的人工智能模型和两种人们认为自己具有不同领域专业知识水平的决策环境中满足这些属性。我们的结果表明,许多人工智能解释在用于人们缺乏领域专业知识的决策任务时,都不满足任何理想属性。在人们知识更丰富的决策任务上,即使人工智能模型本身就很复杂,特征贡献解释也能满足人工智能解释的更多要求。最后,我们讨论了我们的研究对改进 XAI 方法的设计以更好地支持人类决策以及推进更严格的 XAI 方法实证评估的意义。

27 人工智能辅助决策中解释的作用

27 人工智能辅助决策中解释的作用PDF文件第1页

27 人工智能辅助决策中解释的作用PDF文件第2页

27 人工智能辅助决策中解释的作用PDF文件第3页

27 人工智能辅助决策中解释的作用PDF文件第4页

27 人工智能辅助决策中解释的作用PDF文件第5页

相关文件推荐

2020 年
¥10.0
2024 年
¥1.0