Loading...
机构名称:
¥ 1.0

人工智能模型的应用越来越广泛,这促使各种利益相关者对解释的需求不断增加。然而,这种需求是模棱两可的,因为有许多类型的“解释”,其评价标准也不同。本着多元化的精神,我绘制了解释类型的分类图,以及可以解决这些问题的相关可解释人工智能方法。当我们试图揭示人工智能模型的内部机制时,我们会开发诊断性解释。当我们试图使模型输出变得易于理解时,我们会生成阐释性解释。当我们希望形成模型的稳定概括时,我们会生成期望性解释。最后,当我们想要证明模型的使用合理时,我们会生成角色解释,将模型置于其社会背景中。这种多元化观点的动机源于将原因视为可操纵的关系,将不同类型的解释视为识别人工智能系统中我们可以干预以影响我们期望的变化的相关点。本文减少了 XAI 领域中使用“解释”一词的歧义,为从业者和利益相关者提供了一个有用的模板,以避免歧义并评估 XAI 方法和推定的解释。

可解释人工智能中的解释多元化

可解释人工智能中的解释多元化PDF文件第1页

可解释人工智能中的解释多元化PDF文件第2页

可解释人工智能中的解释多元化PDF文件第3页

可解释人工智能中的解释多元化PDF文件第4页

可解释人工智能中的解释多元化PDF文件第5页