摘要:正念训练与心理健康和认知能力的改善相关,但这些变化背后的具体神经生理机制尚不清楚。本研究使用一种新型的受大脑启发的人工神经网络来研究正念训练对脑电图功能的影响。参与者在三个评估时间点完成一项 4 音听觉异常任务(包括目标和物理上相似的干扰物)。在 A 组(n = 10)中,这些任务是在 6 周正念训练之前、训练后立即和 3 周的随访中完成的;在 B 组(n = 10)中,这些任务是在干预等待期(训练前 3 周)、正念训练前和正念训练后完成的。使用脉冲神经网络(SNN)模型,我们评估了从捕捉与事件相关电位(ERP)相关的神经动态的脑电图数据特征中跨空间和时间生成的并发神经模式。该技术利用了整个 ERP 和跨电极空间极性变化的时间动态。研究结果支持对干扰项的反应相对于目标刺激的连接权重前移。右额叶对干扰项的连接权重与特质正念(正向)和抑郁(负向)相关。此外,正念训练与目标(仅双侧额叶、左额中央和颞叶区域)和干扰项的连接权重增加有关。SNN 模型在根据正念训练对大脑状态进行分类方面优于其他机器学习方法。研究结果表明 SNN 模型
摘要 随着人工智能 (AI) 在社会中的兴起,越来越多的人开始在日常生活中接触复杂且不透明的软件系统。这些黑盒系统通常难以理解,因此对最终用户来说并不可信。可解释人工智能 (XAI) 的研究表明,解释有可能解决这种不透明性问题,使系统更加透明和易于理解。然而,可解释性和可解释性之间的界限充其量是模糊的。虽然 XAI 中对可解释性有许多定义,但大多数定义都没有超越输出的合理性,即提供可解释性。与此同时,XAI 之外的当代研究已经采用了更广泛的可解释性定义,并研究了除算法及其输出之外的系统方面。在本立场文件中,我们认为 AI 系统的需求工程师需要考虑可解释性以外的可解释性要求。为此,我们提出了一个医疗领域的假设场景,该场景展示了 XAI 研究人员通常不会考虑的各种不同的可解释性要求。这篇文章旨在在 XAI 社区中引发讨论,并激励 AI 工程师在提出可解释性要求时跳出黑匣子。
摘要:但是,随着机器学习(ML)模型越来越多地嵌入必须做出的关键决策中,可解释性成为关键功能,因为我们需要确保透明度和对自动化系统的信任。当前,尚无旨在处理复杂或不完整数据的可解释性方法,这严重限制了其对现实世界问题的应用。在本文中,我使用不完整信息(ECII)算法的增强概念归纳来介绍通过引入自动化概念诱导来增强ML的可解释性。使用描述逻辑和域特定背景知识的使用可以通过使用ECII算法来生成有关ML决策的直观,可理解的解释。我们讨论了该算法的方法,它与描述逻辑的集成,并在几个域中呈现其应用程序,并证明其关闭了复杂的ML模型输出和用户频道解释性之间的低点。关键字:机器学习,可解释性,不完整信息(ECII),描述逻辑,不完整数据,自动概念诱导,特定领域特定知识,AI中的透明度。
摘要 - 在一个自主机器人越来越居住在公共场所中的时代,其决策过程中透明度和解释性的必要性变得至关重要。本文介绍了机器人解释和解释性引擎(Roxie)的概述,该引擎构成了这种批判性需求,旨在揭示复杂机器人行为的不透明性质。本文阐明了提供有关机器人决策过程的信息和说明所需的关键功能和要求。它还概述了可与ROS 2部署的软件组件和库的套件,使用户能够对机器人过程和行为提供全面的解释和解释,从而促进了人类机器人互动中的信任和协作。
可解释人工智能 (XAI) 领域的最新研究试图通过分而治之的策略使不透明的 AI 系统变得易于理解。然而,这无法阐明经过训练的 AI 系统作为一个整体是如何工作的。然而,正是这种功能性理解才是满足安全等重要社会需求所必需的。为了解决这种情况,我们认为,AI 研究人员应该寻求机械可解释性,即应用生命科学中熟悉的协调发现策略来揭示复杂 AI 系统的功能组织。此外,理论家在描述 XAI 研究时应该考虑到此类策略的独特成本和收益。
摘要:人工智能 (AI) 的最新进展导致了其在工业领域的广泛应用,机器学习系统在大量任务中表现出超越人类的性能。然而,这种性能的激增通常是通过增加模型复杂性来实现的,将这些系统变成“黑箱”方法,并导致它们的运行方式以及最终它们做出决策的方式存在不确定性。这种模糊性使机器学习系统难以在敏感而关键的领域采用,而这些领域的价值可能巨大,例如医疗保健。因此,近年来,人们对可解释人工智能 (XAI) 领域的科学兴趣重新燃起,该领域涉及开发解释和解释机器学习模型的新方法。本研究重点关注机器学习可解释性方法;更具体地说,我们介绍了这些方法的文献综述和分类,以及它们的编程实现的链接,希望这项调查可以为理论家和实践者提供参考。
机器学习 (ML) 模型在医疗保健、金融和自主系统等关键领域的部署日益增多,凸显了人工智能决策对透明度和问责制的迫切需求。这促使人们越来越关注可解释人工智能 (XAI),这是一个致力于开发方法和工具的子领域,使复杂的 ML 模型可以被人类解释。本文探讨了 XAI 的主要趋势,研究了用于增强机器学习模型可解释性的理论基础和实用方法。我们全面回顾了可解释模型设计、事后可解释性技术和评估解释质量和可信度的评估指标方面的最新进展。本文还深入探讨了模型准确性和可解释性之间的权衡,以及为包括数据科学家、最终用户和监管机构在内的各种利益相关者提供有用且可理解的解释所面临的挑战。最后,我们重点介绍了 XAI 研究中的新兴方向,包括因果推理、公平性和道德考虑在可解释模型开发中的作用。通过综合当前的趋势和挑战,本文旨在更广泛地了解 XAI 的最新进展及其促进更透明、更负责和更用户友好的 AI 系统的潜力。关键词:xai、机器学习、可解释性、可解释性、公平性、敏感性、黑盒。1.介绍
生成AI模型发展的快速增长使其评估与发现其生成能力一样至关重要,例如音频文本,音频,图像和视频生成。我的研究重点是从解释性,可解释性和可信度来分析这些模型。解释性着重于这些模型的决策过程。我的研究试图回答以下问题:该模型能否解释它如何做出明显的决定?此外,它探讨了什么可以帮助该模型产生有关预测背后原因的有意义和可理解的解释。鉴于神经网络的性质,分析每个神经元中的参数通常是没有生产力的。因此,已经开发了各种甲基分析,例如事后分析,以从不同角度解决这个问题。但是,许多方法,例如事后分析,只是刮擦神经网络的表面。需要进一步的研究来解决这个新兴领域中众多未解决的问题。可解释性涉及了解模型的内部工作。鉴于其功能强大的固定功能,确定该模型是否已经完全理解所有要求并生成准确的内容是一项挑战,尤其是当用户不确定正确的答案时。因此,我对因果追踪感兴趣,例如机械性解释性,以深入了解模型。鉴于我对研究概念的讨论,这里有一些利用这些概念的方法和应用:解释性和可解释性旨在实现相同的目标:了解生成过程并解释生成模型的能力。这种不明智的想法将通过增加对模型输出的信任和有效利用来增强用户体验,从而导致可信赖性的方面。