摘要。可解释的人工智能 (xAI) 被视为一种使 AI 系统不再是“黑匣子”的解决方案。确保透明度、公平性和问责制至关重要——这在金融领域尤为重要。本研究的目的是初步调查监管机构和受监管实体对 xAI 在金融领域应用的看法。在荷兰的三家银行和两家监管机构,使用半结构化访谈研究了三个用例(消费者信贷、信贷风险和反洗钱)。我们发现,对于所调查的用例,监管机构和银行在 AI 系统可解释性的期望范围方面存在差异。我们认为,金融部门可以从明确区分技术 AI(模型)可解释性要求和更广泛的 AI 系统在适用法律法规方面的可解释性要求中受益。
摘要:金融当局要求银行的信用评分模型具有可解释性。本文提出了一种可解释的人工智能 (XAI) 模型,用于预测挪威银行提供的无担保消费贷款独特数据集上的信用违约。我们将 LightGBM 模型与 SHAP 相结合,从而能够解释影响预测的解释变量。LightGBM 模型明显优于银行的实际信用评分模型(逻辑回归)。我们发现,LightGBM 模型中预测违约的最重要解释变量是已用信用余额的波动性、剩余信用占总信用的百分比以及客户关系的持续时间。我们的主要贡献是在银行业实施 XAI 方法,探索如何应用这些方法来提高最先进的 AI 模型的可解释性和可靠性。我们还提出了一种分析改进的信用评分模型的潜在经济价值的方法。
摘要 — 第六代 (6G) 无线网络的核心愿景之一是积累人工智能 (AI),以实现万物互联 (IoE) 的自主控制。特别是,必须通过分析人员、数据、流程和事物等 IoE 的上下文指标来维护 IoE 服务交付的质量。然而,当 AI 模型为网络服务提供商带来解释和直觉的缺失时,挑战就随之而来。因此,本文为质量感知的 IoE 服务交付提供了一个可解释的人工智能 (XAI) 框架,该框架同时支持智能和解释。首先,通过考虑网络动态和 IoE 的上下文指标来制定质量感知的 IoE 服务交付问题,其目标是最大化每个 IoE 服务用户的信道质量指数 (CQI)。其次,设计一个回归问题来解决所提出的公式问题,其中通过 Shapley 值解释估计上下文矩阵的可解释系数。第三,通过使用基于集成的回归模型来确保对矩阵之间上下文关系的解释以重新配置网络参数,实现了支持 XAI 的质量感知 IoE 服务交付算法。最后,实验结果表明,AdaBoost 和 Extra Trees 的上行链路改进率分别为 42 .43% 和 16 .32%,而下行链路改进率高达 28 .57% 和 14 .29% 。然而,基于 AdaBoost 的方法无法维持 IoE 服务用户的 CQI。因此,与其他基线相比,所提出的基于 Extra Trees 的回归模型在缓解准确性和可解释性之间的权衡方面表现出显着的性能提升。索引术语 — 万物互联、可解释人工智能、上下文矩阵、Shapley 系数、回归、服务质量。
摘要:可解释的人工智能 (XAI) 模型使人与机器之间的关系更加透明和易于理解。保险行业为展示 XAI 的潜力提供了一个根本的机会,因为该行业拥有大量有关保单持有人的敏感数据,并且在社会进步和创新中具有核心地位。本文分析了当前人工智能 (AI) 在保险行业实践和保险研究中的应用,以评估其可解释程度。使用代表保险业 (X)AI 应用的搜索词,从 IEEE Xplore、ACM 数字图书馆、Scopus、Web of Science 和 Business Source Complete 和 EconLit 中筛选出 419 篇原创研究文章。对由此产生的 103 篇文章(2000-2021 年之间)进行了分析和分类,这些文章代表了保险文献中 XAI 的最新进展,突出了 XAI 方法在保险价值链各个阶段的普遍性。研究发现,XAI 方法在索赔管理、承保和精算定价实践中尤为普遍。简化方法,称为知识提炼和规则提取,被确定为保险价值链中使用的主要 XAI 技术。这很重要,因为将大型模型组合起来以创建具有不同关联规则的更小、更易于管理的模型有助于构建通常可理解的 XAI 模型。XAI 是 AI 的重要发展,可确保信任、透明度和道德价值观嵌入系统的生态系统中。在保险行业背景下对这些 XAI 焦点的评估证明了对 XAI 独特优势的探索是值得的,它向行业专业人士、监管机构和 XAI 开发人员强调了在进一步开发 XAI 时应特别关注的地方。这是首次分析 XAI 在保险行业中的当前应用的研究,同时有助于跨学科理解应用 XAI。在推进有关充分的 XAI 定义的文献的同时,作者根据保险领域 XAI 文献的系统评价,提出了一种改良的 XAI 定义。
知识图谱 [39](KG)是一种用于知识表示的抽象,通过表示诸如纽约市和美国之类的实体(即节点)以及连接这些实体的二元关系,对一个或多个领域的知识进行编码;例如,纽约市和美国通过关系国家连接起来,即纽约市有美国这个国家。大多数 KG 还包含将实体与文字连接起来的关系,即来自已知数据结构的值,如字符串、数字、日期等;例如,连接纽约市和整数 1624 的关系 solved 描述实体纽约市的属性。更一般地,我们可以从双重视角看待知识图谱:将其视为有向标记多图,其中节点表示实体或文字,标记边表示实体之间或实体与文字之间的特定关系;以及一组陈述,也称为事实,具有主语-谓语-宾语三元组的形式,例如(纽约市,国家,美国)和(纽约市,定居,1624)。在下文中,我们将使用符号 (h, r, t)(头,关系,尾)来标识知识图谱中的陈述,就像在有关知识图谱嵌入的文献中经常使用的那样。知识图谱中描述的实体通常使用一组类型来组织,例如城市和国家,也称为概念、类或数据类型(当称为
目前使用的大多数人工智能技术无法提供有关决策过程的信息。然而,这些技术目前应用于医学和公共安全等关键领域,很难知道产生的决策是否不公平、有偏见或错误。为了解决这个问题,可解释的人工智能是一个多学科的研究领域,专注于解决使用不透明的人工智能方法所带来的问题。可解释的人工智能技术允许用户理解并与人工智能技术给出的结果进行交互。为了提高人们对可解释人工智能的认识并鼓励其发展,我们提供了目前使用不透明人工智能技术的关键领域的示例。在这篇文献综述中,我们展示了最相关的发展,并指出了可解释人工智能技术发展中的主要挑战。最后,我们提出了改进可解释人工智能方法的研究建议。
摘要 — 最近,人工智能和机器学习在从图像处理到自然语言处理等许多任务中都表现出色,尤其是深度学习 (DL) 的出现。随着研究的进展,它们已经侵入许多不同的领域和学科。其中一些领域需要高度的责任感和透明度,例如医疗部门。因此需要对机器决策和预测进行解释以证明其可靠性。这需要更高的可解释性,这通常意味着我们需要了解算法背后的机制。不幸的是,DL 的黑箱性质仍未解决,许多机器决策仍然不太理解。我们回顾了不同研究工作提出的可解释性并对其进行了分类。不同的类别展示了可解释性研究的不同维度,从提供“明显”可解释信息的方法到复杂模式的研究。通过将相同的分类应用于医学研究中的可解释性,希望:1) 临床医生和从业者随后可以谨慎对待这些方法; 2)随着对医疗实践的更多考虑,对可解释性的洞察将随之产生;3)鼓励推动基于数据、数学和技术的医学教育。
摘要 法律裁决者和行政决策者做出的决策通常基于大量储存的经验,从中可以提取隐性的专业知识。这种专业知识可能是隐性的和不透明的,甚至对决策者自己来说也是如此,并且在将人工智能应用于法律领域的自动决策任务时会产生障碍,因为如果人工智能决策工具必须建立在领域专业知识的基础上,那么不透明性可能会激增。这引发了法律领域的特殊问题,这需要高度的问责制,从而需要透明度。这需要增强可解释性,这意味着各种利益相关者都需要了解算法背后的机制,以便提供解释。然而,一些人工智能变体(如深度学习)的“黑箱”性质仍未解决,因此许多机器决策仍然知之甚少。这篇调查论文基于法律和人工智能专家之间的独特跨学科合作,通过对相关研究论文进行系统调查,对可解释性范围进行了回顾,并对结果进行了分类。本文建立了一种新颖的分类法,将特定法律子领域中发挥作用的不同形式的法律推理与特定形式的算法决策联系起来。不同的类别展示了可解释人工智能 (XAI) 研究的不同维度。因此,该调查通过结合法律逻辑中的异质性,摆脱了先前单一的法律推理和决策方法:这一特征需要详细说明,在为法律领域设计人工智能驱动的决策系统时应予以考虑。因此,希望行政决策者、法院裁判员、研究人员和从业者能够对可解释性获得独特的见解,并利用该调查作为该领域进一步研究的基础。
摘要 — 中风是脑血管的一种严重神经缺陷,当部分脑部血液供应不足或停止使脑细胞缺氧时就会发生。它会导致各种形式的身体失衡。它是全世界导致疾病和死亡的主要原因之一。20-25% 的中风幸存者有严重的损伤,这与死亡风险增加有关。及早识别众多中风警告信号可以预防中风。在本研究中,我们开发了一种基于集成学习的机器学习架构,能够分析中风患者数据集并准确预测和识别中风特征。首先,收集中风数据集,然后使用合成少数过采样技术 (SMOTE) 来平衡它。然后,我们实施了几种机器学习技术,例如决策树、朴素贝叶斯、K 最近邻、随机森林、极端梯度提升、多层感知器、Ada Boost 和我们提出的集成框架。在优化超参数后,我们提出的框架在所有机器学习分类器中表现出最高的准确率 (99.90%)。我们使用机器学习 (信息增益、相关性和缓解 F) 和统计特征选择技术将年龄、BMI、平均血糖水平、心脏病确定为重要的中风指标。使用 SHapley Additive exExplanations (SHAP) 方法来确定每个属性对模型结果的影响。我们相信我们提出的框架可以帮助医生和临床医生开处方并尽早发现潜在的中风。
摘要:这项研究研究了在可解释的AI(XAI)中使用生物启发的技术来预测阿尔茨海默氏病(AD)。阿尔茨海默氏病是一种神经系统疾病,使早期发现变得困难。使用生物学功能的生物启发的算法的使用提高了人工智能模型的预测精度。主要目标是建立一个可以开放且易于访问的AI系统,以便研究人员和医生可以了解其中的决策过程。该研究利用了多种生物启发的算法,包括受生物系统影响的群智能,神经网络和遗传算法。这些方法有助于特征选择,模型参数优化以及改善AI系统的可预测性。除了准确预测疾病外,该研究还强调了为了在医疗专业人员之间建立接受和信心的原因,这是多么重要。通过生物启发的方法和可解释的AI的结合来增强阿尔茨海默氏病检测技术,可能会导致更好的患者结果和早期治疗。