基于人工智能 (AI) 的系统的快速增长和使用引发了对解释能力的担忧。最近的研究讨论了对可解释人工智能 (XAI) 的新兴需求;然而,从最终用户的角度对可解释人工智能进行系统回顾可以全面了解当前情况并有助于缩小研究差距。本研究的目的是从最终用户的角度对可解释人工智能进行系统的文献综述并综合研究结果。确切地说,目标是 1) 确定最终用户解释需求的维度;2) 研究解释对最终用户感知的影响,3) 确定研究差距并提出 XAI 的未来研究议程,特别是从基于当前知识的最终用户的角度来看。系统文献综述 (SLR) 的最终搜索查询是在 2022 年 7 月进行的。最初,我们从 Scopus 和 Web of Science 数据库中提取了 1707 篇期刊和会议文章。然后应用纳入和排除标准,并为 SLR 选择了 58 篇文章。研究结果显示,塑造 AI 解释的四个维度是格式(解释表示格式)、完整性(解释应包含所有必需信息,包括补充信息)、准确性(有关解释准确性的信息)和时效性(解释应包含最新信息)。此外,除了解释的自动表示外,用户还可以根据需要请求其他信息。我们还描述了 XAI 效果的五个维度:信任、透明度、可理解性、可用性和公平性。我们调查了选定文章中的当前知识,以将未来的研究议程作为研究问题以及可能的研究路径进行问题化。因此,我们开发了一个关于 XAI 及其对用户行为的可能影响的综合框架。
摘要 当今时代的特点是基于数据处理的应用程序和服务日益普及,这些应用程序和服务通常基于人工智能 (AI),尤其是机器学习 (ML) 算法。事实上,从数据中提取见解在个人、公司和公共实体的日常生活中非常常见,并且与市场参与者息息相关,已成为机构组织关注的重要问题。这个主题如此重要,以至于已经提出了临时规定。应用程序解决数据隐私问题的能力是其中一个重要方面。此外,根据特定的应用领域,最重要的是人类能够理解为什么某个基于 AI/ML 的应用程序会提供特定的输出。在本文中,我们讨论了可解释 AI (XAI) 模型的联邦学习概念,简称 FED-XAI,旨在同时满足这两个要求。AI/ML 模型的训练目标是同时保护数据隐私(联邦学习 (FL) 端)并确保系统具有一定程度的可解释性(XAI 端)。我们首先介绍 FL 和 XAI 的基础动机及其基本概念;然后,我们讨论该研究领域的现状,并简要介绍方法、模型和结果。最后,我们重点介绍未来的主要挑战。
我们使用基于 SHapley 加法解释 (SHAP)、局部可解释模型不可知解释 (LIME) 和光梯度增强机 (LightGBM) 的最新可解释人工智能 (XAI) 来分析各种物理农业 (农业) 工人数据集。我们开发了各种有前景的身体感应系统,以增强农业技术进步、培训和工人发展以及安全性。然而,现有的方法和系统不足以深入分析人体运动。因此,我们还开发了可穿戴传感系统 (WS),它可以通过分析不同农田、草地和花园中的人体动态和统计数据来捕获与农业工人运动相关的实时三轴加速度和角速度数据。在使用用 Python 编写的新程序调查获得的时间序列数据后,我们与真正的农业工人和管理人员讨论了我们的发现和建议。在本研究中,我们使用 XAI 和可视化来分析有经验和缺乏经验的农业工人的多样化数据,以开发一种供农业主管培训农业工人的应用方法。
全球税务管理部门越来越依赖人工智能 (AI) 系统实现自动化。然而,自动化对接受算法评估的纳税人的权利具有巨大的潜在影响,而复杂的人工智能系统的不透明性又加剧了这种影响。本文认为,充分保护纳税人的权利需要使用可解释的人工智能 (XAI) 技术,使纳税人、行政上诉机构和法院能够理解税务人工智能系统的运作和决策。这一要求源于指导税收的宪法原则。然而,人工智能的软硬法律手段并没有充分解决这个问题,它们没有解决税收领域的特定信息需求。为了解决这一差距,作者在文章的最后总结了正确应用解释技术到税务人工智能的技术和法律挑战,以确保自动化不会以牺牲纳税人的权利为代价。
可解释的人工智能 (XAI) 方法缺乏基本事实。取而代之的是,方法开发人员依靠公理来确定其解释行为的理想属性。对于需要可解释性的高风险机器学习用途,仅仅依靠公理是不够的,因为实现或其使用可能无法达到理想状态。因此,目前存在对验证 XAI 方法性能的积极研究。在依赖 XAI 的领域,验证的需求尤其突出。一种经常用于评估其效用(在某种程度上是其保真度)的程序是消融研究。通过按重要性排序扰动输入变量,目标是评估模型性能的敏感性。扰动重要的
摘要:可解释人工智能 (XAI) 特性在深度学习模型的仇恨言论检测中具有灵活和多方面的潜力。本研究的目的是解释和说明复杂人工智能 (AI) 模型做出的决策,以了解这些模型的决策过程。作为本研究的一部分,我们采用了两个数据集来演示使用 XAI 进行仇恨言论检测。我们进行了数据预处理,以清除数据中的任何不一致之处、清理推文文本、对文本进行标记和词形还原等。我们还简化了分类变量,以便生成干净的数据集用于训练目的。我们对数据集进行了探索性数据分析,以发现各种模式和见解。我们将各种预先存在的模型应用于 Google Jigsaw 数据集,例如决策树、k-最近邻、多项朴素贝叶斯、随机森林、逻辑回归和长短期记忆 (LSTM),其中 LSTM 的准确率达到 97.6%。将 LIME(局部可解释模型 - 不可知解释)等可解释方法应用于 HateXplain 数据集。创建了 BERT(来自 Transformer 的双向编码器表示)模型的变体,例如准确率为 93.55% 的 BERT + ANN(人工神经网络)和准确率为 93.67% 的 BERT + MLP(多层感知器),以在使用 ERASER(评估基本原理和简单英语推理)基准的可解释性方面取得良好的表现。
利用不完善的气候模型,通过融合模拟和观测来更好地约束未来预测。例如 Labe 和 Barnes (2022)、Diffenbaugh 和 Barnes (2022,已提交)、Rader 等人 (2022,审核中)、Labe 和 Barnes (2021)、Barnes 等人 (2020a)、Barnes 等人 (2019)
在高风险环境中部署人工智能 (AI) 系统需要可信赖的 AI。欧盟最近的指导方针和法规强调了这一关键要求,经合组织和联合国教科文组织的建议也强调了这一点,还有其他一些例子。可信赖 AI 的一个关键前提是必须找到能够提供可靠合理性保证的解释。本文认为,最著名的可解释 AI (XAI) 方法无法提供合理的解释,或者找到可能表现出显著冗余的解释。解决这些缺点的方法是提供形式严谨性保证的解释方法。这些正式解释不仅合理,而且保证无冗余。本文总结了形式化 XAI 这一新兴学科的最新发展。本文还概述了形式化 XAI 面临的现有挑战。
学术图书馆可以采用证明和验证作为查询信息系统和资源的手段。这包括越来越多地本身就是机器学习系统或使用机器学习方法开发的收藏。将“收藏视为数据”的认可是朝着这个方向的一个重要转变。21 在适当的情况下,证明和验证应伴随机器学习衍生的内容和系统。图书馆还必须参与 XAI 作为授权,以评估现有、正在出现或必要的公共政策影响。目前,图书馆在这方面缺乏宣传。对政策和治理框架的要求提醒我们,机器学习“远非纯粹的机械,它深刻而不可避免地具有人性”22,虽然复杂且不透明,“但‘黑匣子’里充满了人。”23
摘要:疼痛是一个复杂的术语,它描述了以各种方式或类型在人体内引起不适的各种感觉。通常,疼痛对身体不同器官的影响从轻微到严重不等,取决于疼痛的起因,可能是受伤、疾病或医疗程序,包括检测、手术或治疗等。随着生物医学和医疗保健领域人工智能 (AI) 系统的最新进展,医生、临床医生和患者之间的接触时间缩短了。然而,人工智能可以通过使用任何生理或行为变化来解释各种疾病患者相关的疼痛。面部表情被认为提供了与情绪和疼痛相关的大量信息,因此临床医生认为这些变化对于评估疼痛非常重要。近年来,不同的机器学习和深度学习模型已经实现了这一点。为了强调人工智能在医学领域的未来范围和重要性,本研究回顾了可解释的人工智能 (XAI),因为人们越来越关注疼痛的自动评估。本综述讨论了如何将这些方法应用于不同类型的疼痛。