点击购买,资源将自动在新窗口打开.
获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
认知科学关于人们如何理解解释的见解对于开发可解释人工智能 (XAI) 中以用户为中心的稳健解释颇具指导意义。我调查了人们在构建解释和从中做出推断时表现出的主要倾向,这些倾向与为人工智能系统提供决策自动解释有关。我首先回顾了人们在构建解释时表现出的一些倾向的实验发现,包括解释深度错觉、直觉解释与反思解释以及解释立场的证据。然后,我考虑了人们如何推理因果解释的发现,包括推理抑制、因果折扣和解释简单性的证据。我认为,XAI 努力的核心是要求人工智能系统提供的自动解释应该对人类用户有意义。
主要关键词