获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
机器学习 (ML) / 人工智能 (AI) 技术(包括神经网络 (NN) 变体)正在快速发展,从而扩展了其功能,导致高级模型在决策过程中得到更频繁的使用 [1]。随着这些模型融入组织和日常工作中,学者和从业者需要更加关注模型的开发过程和结果的解释 [2]–[4]。这一点很重要,因为重要决策越来越多地由人们无法完全理解的不同形式的算法支持或完全自动化,这被称为 AI 黑箱解释问题 [5]。如果我们不能解释算法,我们就无法反驳它们、验证它们、改进它们或从中学习 [6], [7]。从业者和学者都呼吁通过实施透明且易于理解的 ML 模型来更好地理解复杂且不透明的模型。解释 ML 模型的工作原理和结果的产生方式,可以提高人们对机器学习模型的信任度 [5]、[8]– [10]。