摘要我们认为,可解释的人工智能 (XAI),特别是提供理由的 XAI,通常是确保某人能够对基于人工智能 (AI) 系统输出的决策承担适当责任的最合适方式。我们首先表明,为了缩小道德责任差距 (Matthias 2004),通常需要一个在环中的人直接负责特定的人工智能支持的决策。其次,我们诉诸道德责任的认识论条件来论证,为了对自己的决定负责,在环中的人必须对系统的建议做出解释。理由解释特别适合此目的,我们将研究是否以及如何使这种解释适用于人工智能系统。我们通过关注在环中的人和人工智能系统之间不一致的案例来支持我们的主张。