锂离子电池被认为是电动汽车 (EV) 的重要电存储元件。电池模型是电池监控、高效充电和安全管理的基础。非线性建模是表征电池及其动态内部参数和性能的关键。本文提出了一种智能方案,用于对锂聚合物离子电池进行建模,同时监测其在不同环境条件(温度和相对湿度)下的当前充电电流和端电压。首先,建议的框架使用恒流恒压 (CC-CV) 充电协议研究了温度和相对湿度对充电过程的影响。随后,将监测电池周围的工作温度和相对湿度。因此,使用 Hammerstein-Wiener (HW) 模型对 EV 电池动态行为进行有效的非线性建模。HW 模型被认为是一种黑盒模型,它可以表示电池而无需任何数学等效电路模型,从而降低了计算复杂度。最后,该模型确定了不影响电池寿命的充电过程的边界。应用并进行了几个动态模型的实验测试,以确保
报告介绍了建筑环境中的数字孪生概念。报告指出,数据和以这些数据为基础的模型对于构建数字孪生至关重要。根据建模方法,模型分为白盒、灰盒和黑盒模型,根据建模问题,分为正向和反向模型。报告解释了这些模型中的每一个,以阐明如何根据可用数据和要实现的目标类型选择模型。目标可以是性能预测、参数估计、控制、优化和故障检测和诊断。报告的下一部分简要介绍了参数估计模型。参数估计模型本质上是灰盒模型。它们在做出改造决策时很有用,因为它们有助于描述现有房屋的特征,并检查拟议改造方案的有效性。报告阐明了数据选择和热网络配置选择如何影响估计参数。它还进一步解释了为什么需要详细测量来验证参数估计模型。报告的最后一部分简要描述了行为模型、实施这些模型的挑战以及将它们纳入其中以缩小性能差距的重要性。该报告包括来自科学文献的几个行为模型示例,重点介绍了所使用的数据、建模方法和居住者行为研究
摘要:随着机器学习模型的性能和复杂性在过去几年中显著增长,开发描述其行为的方法的需求也日益增加。这种需求主要是由于黑盒模型的广泛使用而产生的,黑盒模型即高性能模型,其内部逻辑难以描述和理解。因此,机器学习和人工智能领域面临着一个新的挑战:通过适当的技术使模型更易于解释。可解释性方法的最终目标是忠实地向用户描述(黑盒)模型的行为,使用户能够更好地理解其逻辑,从而增加对系统的信任和接受度。不幸的是,最先进的可解释性方法可能不足以确保从人类角度完全理解解释。因此,人机交互方法已被广泛用于增强和/或评估机器学习模型的解释。这些方法侧重于收集人类知识,然后人工智能系统可以使用这些知识或让人类参与其中以实现其目标(例如,评估或改进系统)。本文旨在概述通过人机交互方法收集和使用人类知识来改善和评估机器学习模型的可理解性的文献。此外,本文还讨论了可解释性方面的挑战、最新进展和未来趋势。
可解释人工智能 (XAI) 在使人类理解和信任深度学习系统方面发挥着至关重要的作用。随着模型变得越来越大、越来越普遍,并且在日常生活的各个方面都无处不在,可解释性对于最大限度地减少模型错误的不利影响是必不可少的。不幸的是,以人为中心的 XAI 中的当前方法(例如医疗保健、教育或个性化广告中的预测任务)倾向于依赖于单个事后解释器,而最近的研究发现,当应用于相同的底层黑盒模型实例时,事后解释器之间存在系统性分歧。因此,在本文中,我们呼吁采取行动来解决当前最先进解释器的局限性。我们建议从事后可解释性转向设计可解释的神经网络架构。我们确定了以人为中心的 XAI 的五个需求(实时、准确、可操作、人类可解释和一致),并提出了两种可解释设计神经网络工作流程的方案(使用 InterpretCC 进行自适应路由和使用 I2MD 进行时间诊断)。我们假设以人为中心的 XAI 的未来既不在于解释黑匣子,也不在于恢复传统的可解释模型,而在于本质上可解释的神经网络。
卷积神经网络(CNN)在几十年前就无法想象的表演,这要归功于采用了数百层和近数十亿个可训练的参数的非常大的模型。然而,解释他们的决策是很不困难的,因为它们是高度非线性的,并且过度参数化。此外,对于现实生活中的应用,如果模型利用数据的伪造相关性来预测预测,则最终用户将怀疑该决定的有效性。尤其是,在医学或关键系统等高风险场景中,ML必须保证使用正确的功能来计算预测并防止伪造的关联。因此,近年来,可解释的人工智能(XAI)研究领域一直在不断发展,以了解黑盒模型中的决策机制。在本文中,我们关注事后解释方法。值得注意的是,我们对反事实解释的不断增长分支(CE)[63]。ce旨在创建输入样本的最小但有意义的扰动,以更改固定预告片模型给出的原始决定。尽管CE和对抗性示例之间的观点具有一些相似之处[44],但CE的扰动必须是可以理解和合理的。相比之下,对抗性示例[37]包含与人眼无法区分的高频噪声。总体而言,CE目标四个目标:(i)解释必须使用(ii)稀疏修改,即具有最小扰动的实例。此外,(iii)解释必须是现实的,并且可以通过
传统上,可解释的人工智能寻求提供高性能黑盒模型(例如深度神经网络)的解释和可解释性。由于此类模型的复杂性很高,因此对其进行解释仍然很困难。另一种方法是强制深度神经网络使用人类可理解的特征作为其决策的基础。我们使用岩石类型的自然类别域测试了这种方法。我们将使用 Resnet50 的迁移学习黑盒实现的性能与首先训练以预测专家识别的特征然后被迫使用这些特征对岩石图像进行分类的网络的性能进行了比较。这个特征约束网络的性能与无约束网络的性能几乎相同。此外,部分受限的网络被迫压缩为少数未使用专家特征进行训练的特征,这不会导致这些抽象特征变得可理解;尽管如此,可以发现这些特征的仿射变换与专家可理解的特征很好地一致。这些发现表明,让人工智能本质上可理解并不一定以牺牲性能为代价。© 2022 作者。由 ELSEVIER B.V. 出版。这是一篇根据 CC BY-NC-ND 许可开放获取的文章(https://creativecommons.org/licenses/by-nc-nd/4.0)由 KES International 科学委员会负责同行评审 关键词:不言自明的人工智能;深度神经网络;迁移学习;XAI;类别学习
摘要 — 细菌鉴定、抗生素耐药性预测和菌株分型是临床微生物学中的关键任务,对于指导患者治疗和控制传染病的传播至关重要。虽然机器学习 (ML) 和深度学习 (DL) 在增强 MALDI-TOF 质谱应用方面显示出巨大的前景,但仍然缺乏从技术角度进行的全面审查。为了弥补这一差距,我们系统地回顾了 2004 年至 2024 年期间发表的 93 项研究,重点关注关键的 ML/DL 方面,例如数据大小和平衡、预处理流程、峰值选择方法、算法、评估技术以及开源数据和代码的可用性。我们的分析强调了随机森林和支持向量机等经典 ML 模型的主要用途,以及人们对使用 DL 方法处理复杂高维数据的兴趣。尽管取得了重大进展,但预处理工作流程不一致、依赖黑盒模型、外部验证有限以及开源资源不足等挑战仍然存在,阻碍了透明度、可重复性和更广泛的采用。通过解决这些关键差距,本综述提供了可行的见解,以弥合微生物学和技术视角之间的鸿沟,为诊断微生物学中更强大、可扩展和可解释的解决方案铺平了道路。
1,2技术科学学院 - Sebha 3高级技术工程研究所 - Sebha摘要:随着人工智能(AI)继续推动各个领域的进步,AI模型中对解释性的需求变得越来越重要。许多最先进的机器学习模型,尤其是深度学习体系结构,都是“黑匣子”,使他们的决策过程难以解释。可解释的AI(XAI)旨在提高模型透明度,确保AI驱动的决策是可以理解的,可信赖的,并且与道德和监管标准保持一致。本文探讨了AI解释性的不同方法,包括本质上可解释的模型,例如决策树和逻辑回归,以及诸如Shap(Shapley添加说明)和Lime(局部可解释的模型 - 敏捷的解释)之类的事后方法。此外,我们讨论了解释性的挑战,包括准确性和可解释性之间的权衡,可伸缩性问题以及特定领域的要求。本文还重点介绍了XAI在医疗保健,金融和自治系统中的现实应用。最后,我们研究了未来的研究方向,强调了混合模型,因果解释性和人类协作。通过培养更容易解释的AI系统,我们可以增强数据科学应用程序中的信任,公平性和问责制。关键字:可解释的AI(XAI),可解释性,机器学习,黑盒模型,模型透明度,摇摆,石灰,道德AI,可信赖的AI,事后解释性,偏置缓解性,调节性,监管合规性,人类 - ai相互作用。
摘要背景:人们普遍担心在医疗保健等敏感环境中使用黑盒建模方法。尽管性能有所提升且备受炒作,但这些问题阻碍了人工智能 (AI) 的普及。人们认为可解释的人工智能有助于缓解这些担忧。但是,现有的可解释定义并未为这项工作奠定坚实的基础。方法:我们批评了最近关于以下文献的评论:团队中人工智能的代理;心理模型,尤其是它们应用于医疗保健时,以及它们引出的实际方面;以及现有和当前的可解释性定义,尤其是从人工智能研究人员的角度来看。在此文献的基础上,我们创建了可解释的新定义和支持术语,提供了可以客观评估的定义。最后,我们将可解释的新定义应用于三个现有模型,展示了它如何应用于先前的研究,并为基于此定义的未来研究提供指导。结果:现有的解释定义以全球适用性为前提,并未解决“谁可以理解?”的问题。如果将人工智能视为团队成员,那么引出心理模型可以比作创建可解释的人工智能。在此基础上,我们根据模型的背景来定义可解释性,包括模型和解释的目的、受众和语言。作为示例,此定义应用于手术室团队中的回归模型、神经网络和人类心理模型。结论:现有的解释定义在确保解决实际应用问题方面存在局限性。根据应用背景来定义可解释性会迫使评估与模型的实际目标保持一致。此外,它将允许研究人员明确区分针对技术受众和普通受众的解释,从而允许对每种解释应用不同的评估。关键词:可解释性、xAI、黑盒模型、心理模型
摘要 在胸部 X 光 (CXR) 诊断领域,现有研究通常仅侧重于确定放射科医生的注视点,通常是通过检测、分割或分类等任务。然而,这些方法通常被设计为黑盒模型,缺乏可解释性。在本文中,我们介绍了可解释人工智能 (I-AI),这是一种新颖的统一可控可解释流程,用于解码放射科医生在 CXR 诊断中的高度关注度。我们的 I-AI 解决了三个关键问题:放射科医生注视的位置、他们在特定区域关注的时间以及他们诊断出的发现。通过捕捉放射科医生凝视的强度,我们提供了一个统一的解决方案,可深入了解放射学解释背后的认知过程。与当前依赖黑盒机器学习模型的方法不同,这些方法在诊断过程中很容易从整个输入图像中提取错误信息,而我们通过有效地屏蔽不相关的信息来解决这个问题。我们提出的 I-AI 利用视觉语言模型,可以精确控制解释过程,同时确保排除不相关的特征。为了训练我们的 I-AI 模型,我们利用眼球注视数据集来提取解剖注视信息并生成地面真实热图。通过大量实验,我们证明了我们方法的有效性。我们展示了旨在模仿放射科医生注意力的注意力热图,它编码了充分和相关的信息,仅使用 CXR 的一部分即可实现准确的分类任务。代码、检查点和数据位于 https://github.com/UARK-AICV/IAI。1. 简介