摘要。可解释人工智能 (XAI) 正在迅速成为一个新兴且快速增长的研究领域;然而,尽管 XAI 可以为人工智能在该行业的应用带来潜力,但它在医疗保健领域的应用仍处于早期阶段。仍有许多挑战有待解决,包括制定解释标准、不同利益相关者与模型之间的互动程度、质量和性能指标的实施、安全和问责标准的一致意见、将其集成到临床工作流程和 IT 基础设施中。本文有两个目标。第一个是介绍文献调查的总结结果,并强调可解释性的最新进展,包括 XAI 在医疗保健行业的差距、挑战和机遇。为了更容易理解和加入这个研究领域,我们建议采用综合分类法对可解释性方法进行分类。第二个目标是问一个问题,即通过特定的问题/领域视角,应用一种新的方式来看待可解释性问题空间,并以与 AutoML 类似的方式自动化该方法,是否有助于缓解上述挑战。在文献中,人们倾向于从模型优先的角度来看待人工智能的可解释性,这将具体的问题和领域放在一边。例如,患者生存模型的可解释性与解释医院费用程序计算相同。有了明确确定的 XAI 应该应用的问题/领域,范围就很明确,使我们能够(半)自动地找到合适的模型,优化它们的参数及其解释、指标、利益相关者、安全/问责水平,并提出将它们整合到临床工作流程中的方法。
主要关键词