虽然近年来已经开发了大量可解释的人工智能 (XAI) 算法,但它们因与人类产生和使用解释的方式存在重大差距而受到批评。因此,当前的 XAI 技术通常被发现难以使用且缺乏有效性。在这项工作中,我们试图通过使人工智能解释具有选择性(人类解释的基本属性)来弥补这些差距,通过根据与接收者的偏好相符的内容有选择地呈现模型推理的子集。我们提出了一个通用框架,用于通过利用小型数据集上的人工输入来生成选择性解释。该框架开辟了一个丰富的设计空间,可以考虑不同的选择性目标、输入类型等。作为展示,我们使用决策支持任务来探索基于决策者认为与决策任务相关的内容的选择性解释。我们进行了两项实验研究,以基于我们提出的框架来检验三种范式:在研究 1 中,我们要求参与者提供基于批评或开放式的输入以生成选择性解释(自我输入)。在研究 2 中,我们向参与者展示基于来自类似用户小组的输入(注释者输入)的选择性解释。我们的实验证明了选择性解释在减少对人工智能的过度依赖、改善协作决策和对人工智能系统的主观感知方面的前景,同时也描绘了一幅细致入微的图景,将其中一些积极影响归因于提供自己的输入以增强人工智能解释的机会。总体而言,我们的工作提出了一个受人类沟通行为启发的新型 XAI 框架,并展示了其鼓励未来工作使人工智能解释更人性化的潜力。