医疗保健和其他领域复杂 AI 系统的兴起导致了可解释 AI (XAI) 研究领域的兴起,旨在提高透明度。在这一领域,定量和定性研究侧重于通过提供系统级和预测级 XAI 功能来提高用户信任度和任务绩效。我们分析了关于使用 AI 进行肾移植的利益相关者参与活动(访谈和研讨会)。由此,我们确定了用于构建当前 XAI 功能范围界定文献综述的主题。利益相关者参与过程持续了九个多月,涵盖了三个利益相关者群体的工作流程,确定了 AI 可以干预的地方并评估了模拟 XAI 决策支持系统。根据利益相关者的参与,我们确定了与设计 XAI 系统相关的四个主要主题 - 1) 使用 AI 预测,2) AI 预测中包含的信息,3) 针对个体差异对 AI 预测进行个性化,以及 4) 针对特定情况定制 AI 预测。使用这些主题,我们的范围界定文献综述发现,根据利益相关者任务的复杂性,在决策之前、期间或之后提供 AI 预测可能会有所帮助。此外,外科医生等专家利益相关者更喜欢最少或没有 XAI 功能、AI 预测和不确定性估计,以便于使用案例。但是,几乎所有利益相关者都喜欢在需要时查看可选的 XAI 功能,尤其是在难以预测的情况下。文献还表明,提供系统和预测级别的信息对于适当地构建用户的系统心理模型是必要的。尽管 XAI 功能提高了用户对系统的信任度,但人机协作的表现并不总是得到提升。总体而言,利益相关者更喜欢通过 XAI 界面来控制信息级别,这取决于他们的需求和任务复杂性。最后,我们提出了未来研究的建议,特别是根据偏好和任务定制 XAI 功能。