我们对成功组织实施人工智能 (AI) 业务应用的必要和独特属性了解有限 (Pumplin 等人,2019)。最近的研究表明,许多组织未能通过人工智能创造有形商业价值 (Shollo 等人,2022),人工智能投资回报低于预期 (Mikalef & Gupta,2021)。未能实现人工智能技术的潜力,很大程度上归因于社会和组织在价值创造过程中对人工智能与人类关系的过于简单但普遍的方式 (Metcalf 等人,2019)。此外,人工智能的进步远远超出了被视为人类使用的单纯技术工具的范围,而是能够作为相互依存的代理运行 (Fügener 等人,2021;Seeber 等人,2020)。这对当前的战略决策、技术投资、人机协作和
机器学习 (ML) / 人工智能 (AI) 技术(包括神经网络 (NN) 变体)正在快速发展,从而扩展了其功能,导致高级模型在决策过程中得到更频繁的使用 [1]。随着这些模型融入组织和日常工作中,学者和从业者需要更加关注模型的开发过程和结果的解释 [2]–[4]。这一点很重要,因为重要决策越来越多地由人们无法完全理解的不同形式的算法支持或完全自动化,这被称为 AI 黑箱解释问题 [5]。如果我们不能解释算法,我们就无法反驳它们、验证它们、改进它们或从中学习 [6], [7]。从业者和学者都呼吁通过实施透明且易于理解的 ML 模型来更好地理解复杂且不透明的模型。解释 ML 模型的工作原理和结果的产生方式,可以提高人们对机器学习模型的信任度 [5]、[8]– [10]。