因果关系和可解释人工智能 (XAI) 是计算机科学中独立的领域,尽管因果关系和解释的基本概念有着共同的古老根源。由于缺乏共同涵盖这两个领域的评论工作,这种情况进一步加剧。在本文中,我们调查了文献,试图了解因果关系和 XAI 是如何以及在多大程度上交织在一起的。更准确地说,我们试图揭示这两个概念之间存在什么样的关系,以及如何从中受益,例如,在建立对人工智能系统的信任方面。结果,确定了三个主要观点。在第一个观点中,因果关系的缺乏被视为当前人工智能和 XAI 方法的主要局限性之一,并研究了“最佳”解释形式。第二个是务实的观点,将 XAI 视为一种工具,通过识别值得追求的实验操作来促进因果探究的科学探索。最后,第三个观点支持因果关系对 XAI 具有先导性的观点,其方式有三种:利用从因果关系中借用的概念来支持或改进 XAI、利用反事实来解释,以及将访问因果模型视为自我解释。为了补充我们的分析,我们还提供了用于自动执行因果任务的相关软件解决方案。我们相信,通过强调潜在的领域桥梁并揭示可能的局限性,我们的工作为因果关系和 XAI 这两个领域提供了统一的视角。