过去几年,可解释人工智能 (XAI) 和与之密切相关的可解释机器学习 (IML) 的研究发展迅速。推动这一增长的因素包括最近的立法变化、行业和政府增加的投资,以及公众日益关注。人们每天都会受到自主决策的影响,公众需要了解决策过程才能接受其结果。然而,XAI/IML 的绝大多数应用都侧重于提供低级“狭义”解释,说明如何根据特定数据做出个人决策。虽然这些解释很重要,但它们很少能洞察代理的信念和动机;其他(人类、动物或人工智能)代理意图的假设;对外部文化期望的解释;或者,用于生成自身解释的过程。然而,我们认为,所有这些因素对于提供人们接受和信任人工智能决策所需的解释深度都至关重要。本文旨在定义解释的层次,并描述如何将它们整合起来,以创建一个以人为本的对话解释系统。为此,本文将调查当前的方法,并讨论如何整合不同的技术,以通过广泛可解释人工智能 (Broad-XAI) 实现这些层次,从而迈向高级“强”解释。