简介由于智能系统和人类之间对透明度和信任的需求巨大,可解释人工智能规划(XAIP)最近因其在现实世界应用中的潜在应用而获得了广泛关注。在此背景下,最近出现的一个热门主题称为模型协调(Chakraborti 等人,2017 年)。该领域的研究人员研究了代理如何向可能对同一规划问题有不同理解的人类用户解释其决策。这些解释通过将最少数量的更新从代理模型转移到人类模型,使人类用户的模型更接近代理模型。然而,这些研究的共同点是,它们大多采用自动化规划方法,这并不奇怪。在本研究中,我们从知识表示和推理 (KR) 的角度解决了模型协调问题 (MRP),其中我们奠定了扩展 Vasileiou 等人 (2019) 提出的基于逻辑的框架的理论基础,并认为它可以有效地对 MRP 进行建模。由于我们的框架建立在各种 KR 技术之上,我们进一步详细阐述了这些技术之间的关系及其对 XAIP 的适用性,并提供了两个示例来强调与我们提出的框架的不同之处。
1 引言 随着人工智能技术的成熟,与用户交互的问题已成为人工智能社区面临的主要挑战之一。这些挑战中最重要的是人工智能系统能够向处于循环中的人类解释它们的推理 [26]。这对于人类和人工智能系统共同解决问题的协作交互以及与最终用户建立信任都是必要的。在更广泛的人工智能社区朝这个方向开展的工作中,在本调查中,我们重点关注自动规划社区如何应对这一挑战。为此,最近的进展之一是在该领域的首要会议国际自动规划和调度会议 (ICAPS) 上建立了可解释人工智能规划 (XAIP) 研讨会 1。研讨会议程如下: