摘要 —我们认为,可解释的人工智能必须拥有其决策的基本原理,能够推断观察到的行为的目的,并能够在受众理解和意图的背景下解释其决策。为了解决这些问题,我们提出了四个新颖的贡献。首先,我们根据感知状态定义任意任务,并讨论可能解决方案领域的两个极端。其次,我们定义内涵解决方案。根据某些智能定义,它是最佳的,它描述了任务的目的。拥有它的代理根据该目的对其决策有基本原理,并以基于硬件的感知符号系统来表达。第三,要传达该基本原理,需要自然语言,即一种编码和解码感知状态的方式。我们提出了一种意义理论,其中,为了获得语言,代理应该模拟语言描述的世界,而不是语言本身。如果人类的话语对代理的目标具有预测价值,那么代理将根据自己的目标和感知状态赋予这些话语以意义。在皮尔士符号学的背景下,代理社区必须共享符号、指称项和解释项的粗略近似值才能进行交流。意义只存在于意图的背景下,因此要与人类交流,代理必须具有可比的经验和目标。一个学习内涵解决方案的代理,在类似于人类动机的目标函数(如饥饿和痛苦)的驱使下,可能不仅能够根据自己的意图,而且能够根据受众的理解和意图来解释其原理。它形成了对人类感知状态的某种近似。最后,我们引入镜像符号假设,该假设认为,在类似人类的强迫下,代理作为内涵解决方案的一部分学习的符号表现得像镜像神经元。根据普遍的推测,这些神经元可能在促进同理心方面发挥重要作用。索引术语 — 内涵型人工智能、可解释型人工智能、同理心型人工智能