本研究中使用的方法可以帮助电池开发人员将不同的操作策略与电池老化联系起来。We use inputs such as temperature (T), current (I), and state of charge (SOC) and utilize a feature transforma- tion technique which generates histogram-based stressor features representing the time that the battery cells spend under operational conditions, then investigate the performance of DNN models along with explainable machine learning (XML) techniques (e.g., SHapley Additive exPlanations) in predicting LiB SOH.比较分析利用了广泛的开源数据集来评估LSTM,GRU和FNN等深度学习模型的性能。预测以两种不同的模式执行:一个将预测的周期限制为520,另一个将预测扩展到了电池第一寿命的结束(SOH = 80%)。
在这篇短文中,我们旨在将最近关于数据质量解释的研究与可解释的人工智能联系起来。我们首先描述了一些寻找查询结果解释的方法。例如,查询可能会提取数据中潜在的不一致或其他形式的肮脏,并且人们希望找到这些不一致的解释。这些解释对应于典型的问题,例如“什么数据是脏的?”,“为什么脏?”以及“特定数据如何导致整体肮脏?”。因此,它们以越来越精细的粒度解释查询结果。鉴于人工智能/机器学习方法在数据分析中的兴起,需要重新审视上述解释方法。事实上,查询现在变成了一个更复杂的数据分析任务。我们指出,本文并不是一项全面的调查。相反,我们的重点是提供一些关于这个普遍问题的见解,并确定几个有希望的研究方向。
在高风险环境中部署人工智能 (AI) 系统需要可信赖的 AI。欧盟最近的指导方针和法规强调了这一关键要求,经合组织和联合国教科文组织的建议也强调了这一点,还有其他一些例子。可信赖 AI 的一个关键前提是必须找到能够提供可靠合理性保证的解释。本文认为,最著名的可解释 AI (XAI) 方法无法提供合理的解释,或者找到可能表现出显著冗余的解释。解决这些缺点的方法是提供形式严谨性保证的解释方法。这些正式解释不仅合理,而且保证无冗余。本文总结了形式化 XAI 这一新兴学科的最新发展。本文还概述了形式化 XAI 面临的现有挑战。
●从证据中参与论证:当学生测试他们的电路设计时,他们可以根据其结果来辩论不同配置的有效性。●构建解释和设计解决方案:课程的动手性质使学生可以为他们的发现和设计解决方案构建解释,以应对电路挑战。
机器学习模型需要提供对比性解释,因为人们经常试图理解为什么会出现令人费解的预测而不是某些预期的结果。当前的对比性解释是示例或原始特征之间的基本比较,由于缺乏语义含义,因此仍然难以解释。我们认为解释必须与其他概念、假设和关联更相关。受认知心理学感知过程的启发,我们提出了 XAI 感知处理框架和 RexNet 模型,用于具有对比显着性、反事实合成和对比线索解释的可关联可解释 AI。我们研究了语音情绪识别的应用,并实现了一个模块化多任务深度神经网络来预测和解释语音中的情绪。从出声思考和受控研究中,我们发现反事实解释很有用,并且可以通过语义线索得到进一步增强,但不是显着性解释。这项工作为提供和评估用于感知应用的可关联对比可解释 AI 提供了见解。
摘要 — 人工智能 (AI),尤其是机器学习 (ML),在考古学中的应用正在蓬勃发展,开辟了文物分类、遗址位置预测和遗迹分析等新的可能性。这方面的主要挑战之一是缺乏精通机器学习的合格考古学家。在本研究中,我们介绍了 IArch,这是一种无需特定编程技能即可让考古学家进行可解释人工智能 (XAI) 数据分析的工具。它特别允许执行数据分析以验证现有的数据支持假设或生成新假设。该工具涵盖了应用 ML 的整个工作流程,从数据处理到解释最终结果。该工具允许使用监督和无监督 ML 算法,以及 SHapley Additive exPlanations (SHAP) 技术为考古学家提供对预测的整体和个体解释。我们通过蒙古草原上的匈奴墓地(公元前 100 年 / 公元 100 年)的数据证明了它的应用。
摘要背景:人工智能有可能彻底改变医疗保健,它越来越多地被用于支持和协助医疗诊断。人工智能的一个潜在应用是作为患者的第一个接触点,在将患者送往专家之前取代初步诊断,使医疗保健专业人员能够专注于治疗中更具挑战性和关键性的方面。但是,要使人工智能系统成功扮演这一角色,仅提供准确的诊断和预测是不够的。此外,它还需要提供(向医生和患者)关于诊断原因的解释。如果没有这一点,准确和正确的诊断和治疗可能会被忽略或拒绝。方法:评估这些解释的有效性并了解不同类型解释的相对有效性非常重要。在本文中,我们通过两个模拟实验来研究这个问题。对于第一个实验,我们测试了重新诊断场景,以了解局部和全局解释的效果。在第二个模拟实验中,我们在类似的诊断场景中实施了不同形式的解释。结果:结果表明,解释有助于提高关键重新诊断期间的满意度指标,但在重新诊断之前(进行初步治疗时)或之后(当替代诊断成功解决病例时)几乎没有影响。此外,关于该过程的初始“全局”解释对即时满意度没有影响,但改善了对人工智能理解的后期判断。第二个实验的结果表明,与没有解释或仅基于文本的原理相比,结合视觉和基于示例的解释与原理相结合对患者满意度和信任的影响明显更好。与实验 1 一样,这些解释主要影响重新诊断危机期间的即时满意度指标,在重新诊断之前或成功解决诊断后几乎没有优势。结论:这两项研究帮助我们得出关于面向患者的解释性诊断系统如何成功或失败的几个结论。基于这些研究和文献综述,我们将为医疗领域的 AI 系统提供的解释提供一些设计建议。
人工智能 (AI) 中的解释可确保复杂 AI 系统的用户了解系统行为的原因。用户对系统行为的期望会发挥一定作用,因为他们共同决定了解释的适当内容。在本文中,我们研究了当系统以意外方式运行时用户所需的解释内容。具体来说,我们向参与者展示了涉及自动文本分类器的各种场景,然后要求他们在每种场景中指出他们喜欢的解释。一组参与者从多项选择问卷中选择解释类型,另一组参与者必须使用自由文本回答。当输出符合预期时,参与者对于首选的解释类型表现出相当明确的一致意见:大多数人根本不需要解释,而那些需要解释的人则希望得到一个解释,说明输入的哪些特征导致了输出(事实解释)。当输出不符合预期时,用户也喜欢不同的解释。有趣的是,在多项选择问卷中,一致性较低。然而,自由文本回答略微表明,他们更倾向于描述人工智能系统的内部运作如何导致观察到的输出(即机械解释)的解释。总体而言,我们表明用户期望是确定最合适的解释内容(包括是否需要解释)的重要变量。我们还发现不同的结果,尤其是当输出不符合预期时,这取决于参与者是通过多项选择还是自由文本回答。这表明对精确实验设置的敏感性可能解释了文献中的一些变化。
