效率的提高是以不透明性和偏见为代价的 [1, 21, 29]。人们越来越关注透明度和解释,以发现和减轻机器学习算法引入的偏见和错误。在这些解释方法中,基于代理的模型解释(现在称为代理解释)是最常用的 [16]。代理方法训练代理来模仿分类器的结果。选择此代理是因为其设计简单、高度透明且易于理解。在他们的调查中,Bodria 等人 [6] 将代理解释分为三类:(a)特征归因,(b)规则和(c)基于示例的解释。每个解释都有不同的目的(本文首先提出),最终影响解释的生成方式和呈现给用户的方式。
4. 外层空间的作业环境充满秘密,缺乏透明度、信任和对话,这是导致军备竞赛的集体不安全感的重要根源。4 作业环境的不透明性因太空技术的性质而加剧,太空技术具有双重目的能力和太空系统的双重用途,这两者都可能掩盖能力、意图和可能危害的性质。任何禁止武器或太空系统有害使用的尝试都必须首先定义、识别和验证此类系统,有效地将其与和平系统区分开来;对外层空间的能力和活动缺乏明确性会阻碍此类努力。
摘要 使用机器学习开发的模型在科学研究中越来越普遍。与此同时,这些模型是出了名的不透明。可解释人工智能旨在通过使不透明的模型变得透明来减轻不透明性的影响。然而,可解释人工智能不仅仅是一个问题的解决方案,它还可以在科学探索中发挥宝贵的作用。本文介绍了如何使用可解释人工智能的事后分析技术来细化医学科学中的目标现象,确定未来研究(潜在)因果关系的起点,并为认知科学中的目标现象提供可能的解释。通过这种方式,本文描述了可解释人工智能(超越机器学习本身)如何为数据驱动的科学研究的效率和范围做出贡献。
摘要 使用机器学习开发的模型在科学研究中越来越普遍。与此同时,这些模型是出了名的不透明。可解释人工智能旨在通过使不透明的模型变得透明来减轻不透明性的影响。然而,可解释人工智能不仅仅是一个问题的解决方案,它还可以在科学探索中发挥宝贵的作用。本文介绍了如何使用可解释人工智能的事后分析技术来细化医学科学中的目标现象,确定未来研究(潜在)因果关系的起点,并为认知科学中的目标现象提供可能的解释。通过这种方式,本文描述了可解释人工智能(超越机器学习本身)如何为数据驱动的科学研究的效率和范围做出贡献。
模型风险是指由产生错误或误导结果的模型引起的不良结果的潜力。这种风险不仅起源于设计缺陷,数据不准确或实施错误,而且还来自模型的滥用。当模型在未设计的上下文中应用或对模型输出进行错误解释或操纵时,可能会发生滥用。在人工智能(AI)和机器学习(ML)的背景下,模型风险涵盖了在处理和分析大量数据集以做出预测,决策或建议的模型中固有的不准确和不确定性。通过AI/ML模型的复杂性,不透明性和动态性质扩大了这种风险,因此准确预测和量化模型失败的后果是一项挑战。
当前关于复原力的讨论仍然以对目标、可衡量性和行动领域的解释分歧和不透明性为特征。因此,协调、系统地实施复原力方法的先决条件是建立共同的复原力框架。这种框架类似于现有的环境、社会和治理 (ESG) 框架,将为组织提供共同的复原力语言、结构和目标。它还将为如何在危机和混乱更频繁的环境中保护和增强可持续性和包容性提供指导。麦肯锡表示,以该框架为基础,组织可以增强其大多是被动的风险管理实践,利用战略思维并采取更具前瞻性的观点。
在介绍该领域的背景知识(1)之后,本文介绍了主要的争论(2),首先是关于人工智能系统作为对象(即人类制造和使用的工具)时出现的伦理问题;这里的主要部分是隐私(2.1)、操纵(2.2)、不透明性(2.3)、偏见(2.4)、自主性和责任(2.6)和奇点(2.7)。然后我们将人工智能系统视为主体,即当伦理针对人工智能系统本身时,在机器伦理(2.8)中。和人工智能道德机构(2.9)。最后,我们来看看人工智能的未来发展和概念(3)。对于这些主题中的每个部分,我们都提供了道德问题的一般解释,概述了现有的立场和论点,然后分析了这与当前技术如何相互作用,以及最终可能得出哪些政策后果。
摘要 在本文中,我将研究人工智能 (AI) 和自动决策 (ADM) 的使用是否会加剧歧视问题,正如几位作者所论证的那样。为此,我首先参与了关于歧视的激烈哲学辩论,并提出了我自己对这一概念的定义。有了这个解释,我随后回顾了一些关于使用 AI/ADM 和歧视的最新文献。我解释了我的歧视解释如何有助于理解,鉴于歧视加剧的一般说法是没有根据的。最后,我认为使用 AI/ADM 实际上可以增加歧视问题,但方式与大多数批评者认为的不同:正是由于其认识论的不透明性,AI/ADM 有可能破坏我们的道德审议,而道德审议对于达成关于什么应该算作歧视的共识至关重要。因此,事实证明算法实际上可能有助于检测隐藏的歧视形式。
可解释人工智能(XAI)研究项目旨在提供减少不透明性和使人工智能系统更易于人类理解的工具和方法。不幸的是,大多数 XAI 学者实际上是通过将一个系统与传统的人工智能系统(如线性回归模型或基于规则的系统)进行比较,将一个系统归类为或多或少不透明的,而这些系统通常被认为是透明系统的原型。在这样做的过程中,不透明度的概念仍然无法解释。为了解决这个问题,我们将不透明度视为一个概念,其含义取决于应用的环境以及用户的目的和特征。基于此,在本文中,我们区分了访问不透明度、链接不透明度和语义不透明度,从而为人工智能系统不透明度概念的分类奠定了基础。
人工智能 (AI) 系统已渗透到现代生活的方方面面,在医疗保健、金融、刑事司法等关键决策领域发挥着重要作用。然而,许多 AI 模型固有的不透明性在信任、问责和公平性方面带来了重大障碍。为了应对这些挑战,可解释人工智能 (XAI) 已成为一个关键的研究领域,致力于增强 AI 系统的透明度和可解释性。这篇综述论文全面探讨了 XAI 方法的最新进展及其实际应用。我们深入研究了一系列技术,从与模型无关的方法到可解释的机器学习模型,仔细审查了它们各自的优势、局限性和现实世界的影响。XAI 的领域丰富多样,有多种方法可以解决可解释性的不同方面。