摘要:但是,随着机器学习(ML)模型越来越多地嵌入必须做出的关键决策中,可解释性成为关键功能,因为我们需要确保透明度和对自动化系统的信任。当前,尚无旨在处理复杂或不完整数据的可解释性方法,这严重限制了其对现实世界问题的应用。在本文中,我使用不完整信息(ECII)算法的增强概念归纳来介绍通过引入自动化概念诱导来增强ML的可解释性。使用描述逻辑和域特定背景知识的使用可以通过使用ECII算法来生成有关ML决策的直观,可理解的解释。我们讨论了该算法的方法,它与描述逻辑的集成,并在几个域中呈现其应用程序,并证明其关闭了复杂的ML模型输出和用户频道解释性之间的低点。关键字:机器学习,可解释性,不完整信息(ECII),描述逻辑,不完整数据,自动概念诱导,特定领域特定知识,AI中的透明度。