详细内容或原文请订阅后点击阅览
机器学习中的可解释性、可解释性和可观察性
这些术语通常用于描述模型的透明度,但它们的真正含义是什么?模型洞察。作者从 Xplainable 截屏。机器学习 (ML) 因其能够从大型数据集中生成准确的预测和可操作的洞察而越来越流行于各个行业。在全球范围内,34% 的公司已经部署了 ML,报告称客户保留率、收入增长和成本效率显著提高 (IBM,2022)。机器学习采用率的激增可以归因于更易于访问的模型,这些模型可以产生更准确的结果,在多个领域超越了传统的业务方法。然而,随着机器学习模型变得越来越复杂,但越来越依赖,对透明度的需求变得越来越重要。根据 IBM 的全球采用指数,80% 的企业认为确定其模型如何做出决策的能力是一个关键因素。这在医疗保健和刑事司法等行业尤其重要,在这些行业中,模型和他们做出的决策的信任和责任都至关重要。缺乏透明度可能是阻碍机器学习在这些领域广泛应用的一个限制因素,可能会阻碍运营速度、决策过程和整体效率的显著提高。三个关键术语——可解释性、可解释性和可观察性——被广泛认为构成了机器学习的透明度。
来源:走向数据科学可解释性
可解释性没有标准定义,而是普遍接受指“为应对人工智能透明度和信任问题而采取的行动、举措和努力”(Adadi & Berrada,2018 年)。Bibal 等人(2021 年)旨在制定有关法律要求的指南,结论是可解释模型必须能够“(i)[提供] 用于做出决策的主要特征,(ii)[提供] 所有处理过的特征,(iii)[提供] 对决策的全面解释和(iv)[提供] 整个模型的可理解表示”。他们将可解释性定义为提供“关于如何做出特定决策的有意义的见解”,这需要“一种可以让决策对用户有意义的思路(即让决策对他有意义)”。因此,可解释性是指对支撑决策的模型的内部逻辑和机制的理解。
“为应对人工智能透明度和信任问题而采取的行动、举措和努力” (Adadi & Berrada,2018) Bibal 等人 (2021) 理解支撑决策的模型的内部逻辑和机制可解释性的一个历史例子是算法 AlphaGo 与李世石之间的围棋比赛,李世石被认为是有史以来最优秀的围棋选手之一。在第二场比赛中,AlphaGo 的第 19 步被专家和创造者广泛认为“如此令人惊讶,[推翻] 了数百年来的传统智慧”(Coppey,2018)。这一步极其“非人类”,但却是让算法最终赢得比赛的决定性一步。虽然人类事后能够确定这一举动背后的动机,但他们无法解释为什么模型会选择这一举动而不是其他举动,因为他们缺乏对模型逻辑的内部理解。这证明了机器学习的非凡计算能力远远超出人类的能力,但也提出了一个问题:这足以让我们盲目地相信他们的决定吗?