Banipur摘要:人工智能(AI)和机器学习(ML)越来越成为医疗保健,金融和自治系统等关键领域决策的核心。但是,它们的复杂性使许多模型不透明,通常称为“黑框”模型,使用户难以理解或信任做出的决定。可解释的AI(XAI)试图通过在模型决策过程中提供透明度来解决这一问题。两种突出的XAI技术,Shap(Shapley添加说明)和石灰(局部可解释的模型解释)被广泛用于解释复杂的模型。本文介绍了摇动和石灰的比较分析,研究了其理论基础,优势,局限性和应用。Shap植根于合作游戏理论,并提供了一致可靠的解释,而Lime则提供了适合实时应用的有效局部解释。本文进一步讨论了应用这些方法的挑战,尤其是围绕可扩展性和实时决策,并突出了潜在的未来研究方向,包括结合了Shap和Lime优势的混合模型。Keywords: Explainable AI (XAI), Machine Learning Interpretability, SHAP (Shapley Additive Explanations), LIME (Local Interpretable Model-agnostic Explanations), Black-box Models, Model Transparency, Feature Attribution, Model-agnostic Explanations, Cooperative Game Theory, Local Explanations, Global Interpretability, Model Explainability, Bias Detection, Trust in AI, Ethical AI, Algorithm透明度,AI问责制,模型评估,混合解释模型,XAI中的计算复杂性。
项目摘要:在这个项目中,我们旨在通过先进的深度学习技术从可穿戴脑电图 (EEG) 数据中解码人脑信号。我们的方法包括清理和预处理原始 EEG 数据以确保其质量,然后尝试各种深度学习模型,包括卷积/循环神经网络 (CNN/RNN) 和 LSTM,以准确分类人脑信号。我们使用准确度、精确度、召回率和 F1 分数等综合指标评估这些模型,并采用交叉验证以确保稳健的性能。为了增强我们模型的可解释性,我们专注于 SHapley Additive exPlanations (SHAP)、Local Interpretable Model-agnostic Explanations (LIME) 和 Grad-CAM 等方法,为决策过程提供见解。我们将提供 EEG 数据集,该数据集已获得适当的伦理批准,是我们之前使用消费者可穿戴设备进行的研究收集的。加入我们,共同打造未来的酷炫科技!
摘要:背景:创建模型来区分自我报告的心理工作量感知具有挑战性,需要机器学习来识别脑电图信号中的特征。脑电图频带比率量化了人类活动,但对心理工作量评估的研究有限。本研究评估了使用 theta-to-alpha 和 alpha-to-theta 脑电图频带比率特征来区分人类自我报告的心理工作量感知。方法:在本研究中,分析了 48 名参与者在休息和任务密集型活动时的脑电图数据。使用不同的脑电图通道簇和频带比率开发了多个心理工作量指标。使用 ANOVA 的 F 分数和 PowerSHAP 提取统计特征。同时,使用逻辑回归、梯度提升和随机森林等技术建立和测试模型。然后用 Shapley 加法解释来解释这些模型。结果:根据结果,使用 PowerSHAP 选择特征可以提高模型性能,在三个心理工作量指数中表现出超过 90% 的准确率。相比之下,用于模型构建的统计技术表明所有心理工作量指数的结果都较差。此外,使用 Shapley 值来评估特征对模型输出的贡献,可以注意到,ANOVA F 分数和 PowerSHAP 测量中重要性较低的特征在确定模型输出方面发挥了最重要的作用。结论:使用具有 Shapley 值的模型可以降低数据复杂性并改进对感知人类心理工作量的更好判别模型的训练。但是,由于选择过程中特征的重要性及其对模型输出的实际影响有所不同,因此结果有时可能不明确。
拒绝服务 (DDoS) 攻击可能会对在这些网络上运行的联邦学习模型的运行产生负面影响。当前检测 DDoS 的方法主要侧重于保护设备和数据,而忽略了模型保护。在本文中,我们利用并调整了联邦可解释人工智能 (FedXAI),这是一种使用 SHapley Additive exPlanations (SHAP) 设计的联邦学习,以增强物联网网络上联邦学习中的 DDoS 检测和解释。FedXAI 为模型提供了可解释的见解,这对于
可解释的机器学习和人工智能模型已用于证明模型的决策过程。这种增加的透明度旨在帮助提高用户的表现和对底层模型的理解。然而,在实践中,可解释的系统面临许多悬而未决的问题和挑战。具体来说,设计人员可能会降低深度学习模型的复杂性以提供可解释性。然而,这些简化模型生成的解释可能无法准确地证明模型的合理性,也无法真实地反映模型。这可能会进一步增加用户的困惑,因为他们可能认为这些解释对于模型预测没有意义。了解这些解释如何影响用户行为是一个持续的挑战。在本文中,我们探讨了解释的真实性如何影响智能系统中的用户表现和一致性。通过对可解释活动识别系统的受控用户研究,我们比较了视频评论和查询任务的解释真实性变化。结果表明,与准确解释和没有解释的系统相比,低真实性的解释会显著降低用户的表现和一致性。这些发现证明了准确和易懂的解释的重要性,并警告说,就对用户表现和对人工智能系统的依赖的影响而言,糟糕的解释有时比没有解释更糟糕。
摘要 目前存在一场争论,即在医学背景下使用的机器学习系统是否需要可解释,以及在何种意义上需要可解释。赞成者认为,这些系统需要对每个个人决策进行事后解释,以增加信任并确保诊断准确。反对者则认为,系统的高准确性和可靠性足以提供认知上合理的信念,而无需解释每个个人决策。但是,正如我们所表明的,这两种解决方案都有局限性——而且目前还不清楚它们是否能解决使用这些系统的医疗专业人员的认知担忧。我们认为这些系统确实需要解释,但需要制度上的解释。这些类型的解释提供了医疗专业人员在实践中应该依赖该系统的原因——也就是说,它们专注于试图解决那些在特定环境和特定场合使用该系统的人的认知担忧。但确保这些制度解释符合目的意味着确保设计和部署这些系统的机构对系统中的假设是透明的。这需要与专家和最终用户协调,了解该系统在现场如何发挥作用、用于评估其准确性的指标以及审核系统的程序,以防止出现偏差和故障。我们认为,这种更广泛的解释是必要的,因为事后解释或准确性分数对医疗专业人员具有认识论意义,使他们能够依赖这些系统作为实践中有效和有用的工具。
采用不同的 AI 模型和训练策略来分割每个染色中的结构,如细胞核、细胞和纤维化;然后提取形态和纹理特征。血液学家和血液病理学家的反馈也包含在训练过程中。此外,还开发了一个分类模型来分析 MGG 涂片上的细胞,预测 12 种不同的细胞类型。结合标记物、细胞类型和组织成分的百分比及其空间组织,整合在一起以解决项目的临床目标。可解释性和可解释性由 SHapley Additive exPlanations 方法 (SHAP) 实现。使用 Harrell 的一致性指数 (CI) 评估预后模型鉴别,并使用 L1 惩罚 Cox 回归进行特征选择。
虽然近年来已经开发了大量可解释的人工智能 (XAI) 算法,但它们因与人类产生和使用解释的方式存在重大差距而受到批评。因此,当前的 XAI 技术通常被发现难以使用且缺乏有效性。在这项工作中,我们试图通过使人工智能解释具有选择性(人类解释的基本属性)来弥补这些差距,通过根据与接收者的偏好相符的内容有选择地呈现模型推理的子集。我们提出了一个通用框架,用于通过利用小型数据集上的人工输入来生成选择性解释。该框架开辟了一个丰富的设计空间,可以考虑不同的选择性目标、输入类型等。作为展示,我们使用决策支持任务来探索基于决策者认为与决策任务相关的内容的选择性解释。我们进行了两项实验研究,以基于我们提出的框架来检验三种范式:在研究 1 中,我们要求参与者提供基于批评或开放式的输入以生成选择性解释(自我输入)。在研究 2 中,我们向参与者展示基于来自类似用户小组的输入(注释者输入)的选择性解释。我们的实验证明了选择性解释在减少对人工智能的过度依赖、改善协作决策和对人工智能系统的主观感知方面的前景,同时也描绘了一幅细致入微的图景,将其中一些积极影响归因于提供自己的输入以增强人工智能解释的机会。总体而言,我们的工作提出了一个受人类沟通行为启发的新型 XAI 框架,并展示了其鼓励未来工作使人工智能解释更人性化的潜力。
4 Occasionally makes grammatical errors but doesn't affect the meaning 3 Often makes grammatical errors that affect meaning 2 Many grammatical errors hinder meaning and often rearrange sentences 1 The grammatical errors were so severe that they were hard to understand Vocabulary 5 Use vocabulary and expressions like native speakers 4 Sometimes using inappropriate vocabulary 3 Often using inappropriate vocabulary, explanations are limited due to limited vocabulary 2 Using the wrong词汇和有限的词汇使难以理解1个词汇是如此有限,以至于说明是不可能的流利5,像母语4的流利4似乎受到语言问题的略微损害。了解大部分说的话,尽管讲话有些重复2,但很难遵循所讲的话。1甚至不明白描述一个简单的对象(David P. Haris,2007)
摘要:本文介绍了可解释人工智能方法在医学图像分析场景中提供决策支持的潜力。通过将三种可解释方法应用于同一医学图像数据集,我们旨在提高卷积神经网络 (CNN) 提供的决策的可理解性。视频胶囊内窥镜 (VCE) 获得的体内胃部图像是视觉解释的主题,目的是提高医疗专业人员对黑盒预测的信任度。我们实施了两种事后可解释机器学习方法,称为局部可解释模型不可知解释 (LIME) 和 SHapley 附加解释 (SHAP),以及一种替代解释方法,即上下文重要性和效用 (CIU) 方法。产生的解释由人工评估。我们根据 LIME、SHAP 和 CIU 提供的解释进行了三项用户研究。来自不同非医学背景的用户在基于网络的调查环境中进行了一系列测试,并陈述了他们对给定解释的经验和理解。我们对具有三种不同解释形式的三个用户组(n = 20、20、20)进行了定量分析。我们发现,正如假设的那样,在改善对人类决策的支持以及更加透明从而让用户更容易理解方面,CIU 可解释方法比 LIME 和 SHAP 方法表现更好。此外,CIU 因能够更快地生成解释而优于 LIME 和 SHAP。我们的研究结果表明,在不同的解释支持设置之间,人类的决策存在显著差异。与此相符,我们提出了三种潜在的可解释方法,随着未来实施的改进,这些方法可以推广到不同的医疗数据集,并为医疗专家提供有效的决策支持。