HAL 是一个多学科开放存取档案库,用于存放和传播科学研究文献,无论这些文献是否已出版。这些文献可能来自法国或国外的教学和研究机构,也可能来自公共或私人研究中心。
呼吸机相关肺炎(VAP)是重症监护病房(ICU)的机械通气(MV)的患者中医院获得的主要肺炎[1]。最近的研究表明,在MV的ICU患者中,VAP发病率可以达到24%-39%[2],死亡率跨度为25%至50%[3]。VAP显着负担医疗保健系统,导致医疗支出增加,ICU停留时间更长和ICU死亡率更高[4]。因此,开发和部署精确且可靠的临床工具来评估VAP患者死亡率风险不仅在促进早期临床决策中起着重要作用,而且在合理的现有医疗资源分配方面发挥了重要作用[5]。在临床实践中,许多疾病严重程度评分系统,例如急性生理学评分(APS III),简化的急性生理评分(SAPS II),逻辑器官功能障碍系统(LODS)和牛津疾病的急性疾病急性疾病急性严重分数(OASIS),可用于ICU患者的风险评估[3]。然而,由于其复杂性和耗时的计算,通常使用APS III和SAPS II等评分系统对临床操作施加了额外的攻击。此外,这些评分系统的特异性通常是次要的,因为它们主要评估ICU患者状况的总体严重程度,并且可能无法有效预测VAP患者的死亡风险。一项荟萃分析表明,已经采用了各种ML技术来开发VAP的早期预测模型,其中大多数证明了有希望的预测性能[8]。近年来,人工智能的快速发展(AI),尤其是机器学习(ML),人们对其在临床应用中的巨大潜力引起了巨大的兴趣,逐渐转化了重症监护医学并推进了精确医学的发展[6,7]。尽管如此,仍然很少有预测模型指定了VAP患者中住院内死亡风险的规定[9]。本研究旨在开发一个有效的ML模型,以根据重症监护IV(MIMI-C-IV)数据库的医学信息MART预测VAP患者的院内死亡率风险,并通过外部测试来验证该模型的普遍性。更重要的是,Shapley添加说明(SHAP)被用来产生可解释的预测结果,并开发了一种基于Web的工具来促进有效的风险评估,从而使医疗保健专业人员能够做出更有效的临床决策。
摘要。我们提出了一份关于农业领域人工智能 (AI) 和数据流平台概念的立场文件。我们项目的目标是通过提供一个名为 Gaia-AgStream 的人工智能和数据流平台,在碳农业和生物多样性保护方面支持农业生态学,该平台加速了人工智能在农业中的应用,可供农民和农业公司直接使用。我们提出的技术创新侧重于智能传感器网络、统一不确定性管理、可解释的人工智能、根本原因分析和混合人工智能方法。我们的人工智能和数据流平台概念为欧洲开放数据基础设施项目 Gaia-X 做出了贡献,包括数据和人工智能模型的互操作性以及数据主权和人工智能基础设施。我们设想的平台和为碳农业和生物多样性开发的人工智能组件将使农民能够采用可持续和有弹性的生产方法,同时通过将碳封存和人工智能就绪数据流货币化来建立新的和多样化的收入来源。开放和联合的平台概念允许将研究、工业、农业初创企业和农民聚集在一起,以形成可持续的创新网络。我们在这些背景下描述了我们提出的方法的核心概念和架构,概述了我们平台的实际用例,并最终概述了挑战和未来前景。
摘要 近年来人们对人工智能 (AI) 的热情主要归功于深度学习的进步。深度学习方法非常准确,但也不太透明,这限制了它们在安全关键型应用中的潜在应用。为了获得信任和问责,机器学习算法的设计者和操作者必须能够向用户、监管者和公民解释算法的内部工作原理、结果以及失败的原因。本文的独创性在于结合可解释性的技术、法律和经济方面,开发一个框架来定义给定环境下可解释性的“正确”水平。我们提出了三个逻辑步骤:首先,定义主要的背景因素,例如解释的受众是谁、操作背景、系统可能造成的危害程度以及法律/监管框架。此步骤将有助于描述解释的操作和法律需求,以及相应的社会效益。第二步,检查可用的技术工具,包括事后方法(输入扰动、显著性图……)和混合 AI 方法。第三步,根据前两个步骤,选择正确的全局和局部解释输出级别,同时考虑所涉及的成本。我们确定了七种成本,并强调只有当总社会效益超过成本时,解释才具有社会意义。
可解释人工智能 (XAI) 最近已成为一个非常活跃的领域,这主要是由于神经网络等黑箱模型的广泛发展。最新技术定义了最近的 XAI 目标,并提出了具体方法。在 XAI 和其他领域之间可以找到隐式链接,尤其是与知识和神经网络相关的领域。我们在此旨在强调这些隐式链接。我们对两个领域的研究工作进行了叙述性回顾:(i)知识领域,重点关注知识发现和表示,以及(ii)表示学习。我们讨论了这些领域与 XAI 之间的相似性和连接点。我们得出结论,为了使黑匣子更加透明,XAI 方法应该受到更多启发,并利用知识和表示学习领域的过去和最近的工作。通过本文,我们为多学科研究人员和人工智能专家以及人工智能知识渊博的用户提供了 XAI 领域的切入点。
摘要 — 虽然可解释人工智能 (XAI) 的应用领域日益广泛,但很少有应用使深度强化学习 (RL) 更易于理解。随着 RL 变得无处不在并用于关键和一般公共应用,开发使其更易于理解和解释的方法至关重要。本研究提出了一种使用 Shapley 值解释多智能体 RL 中合作策略的新方法,Shapley 值是 XAI 中使用的博弈论概念,成功解释了机器学习算法决策背后的原理。通过在两个以合作为中心的社会挑战多智能体环境中测试该技术的常见假设,本文认为 Shapley 值是评估合作多智能体 RL 环境中玩家贡献的一种恰当方法。为了减轻此方法的高开销,使用蒙特卡洛抽样来近似 Shapley 值。多智能体粒子和顺序社交困境的实验结果表明,Shapley 值能够成功估计每个智能体的贡献。这些结果可能具有超越经济学博弈的意义(例如,对于非歧视性决策、道德和负责任的 AI 决策或公平约束下的政策制定)。它们还揭示了 Shapley 值如何仅对模型提供一般性解释,而无法解释单次运行、情节,也无法证明智能体采取的精确行动。未来的工作应侧重于解决这些关键方面。
机器学习 (ML) 模型在医疗保健、金融和自主系统等关键领域的部署日益增多,凸显了人工智能决策对透明度和问责制的迫切需求。这促使人们越来越关注可解释人工智能 (XAI),这是一个致力于开发方法和工具的子领域,使复杂的 ML 模型可以被人类解释。本文探讨了 XAI 的主要趋势,研究了用于增强机器学习模型可解释性的理论基础和实用方法。我们全面回顾了可解释模型设计、事后可解释性技术和评估解释质量和可信度的评估指标方面的最新进展。本文还深入探讨了模型准确性和可解释性之间的权衡,以及为包括数据科学家、最终用户和监管机构在内的各种利益相关者提供有用且可理解的解释所面临的挑战。最后,我们重点介绍了 XAI 研究中的新兴方向,包括因果推理、公平性和道德考虑在可解释模型开发中的作用。通过综合当前的趋势和挑战,本文旨在更广泛地了解 XAI 的最新进展及其促进更透明、更负责和更用户友好的 AI 系统的潜力。关键词:xai、机器学习、可解释性、可解释性、公平性、敏感性、黑盒。1.介绍
摘要:随着计算能力的提高和海量数据集的增长,人工智能(AI)得到了迅速发展。然而,这一进步也增加了解释人工智能模型“黑箱”性质的挑战。为了解决这些问题,可解释人工智能(XAI)应运而生,它注重透明度和可解释性,以增强人类对人工智能决策过程的理解和信任。在多模态数据融合和复杂推理场景的背景下,多模态可解释人工智能(MXAI)的提出将多种模态集成在一起用于预测和解释任务。同时,大型语言模型(LLM)的出现导致了自然语言处理方面的重大突破,但它们的复杂性进一步加剧了 MXAI 的问题。为了深入了解 MXAI 方法的发展,并为构建更透明、公平和值得信赖的 AI 系统提供重要指导,我们从历史角度回顾了 MXAI 方法,并将它们分为四个时代:传统机器学习、深度学习、判别基础模型和生成式 LLM。我们还回顾了 MXAI 研究中使用的评估指标和数据集,最后讨论了未来的挑战和方向。与此评论相关的项目已在 https://github.com/ShilinSun/mxai review 上创建。
在当今的数字时代,网络威胁的激增使得部署先进的安全措施以保护敏感数据和关键基础设施成为必要。人工智能 (AI) 已成为网络安全领域的变革性工具,推动了能够实时识别和缓解潜在安全漏洞的复杂入侵检测系统 (IDS) 的开发。人工智能驱动的 IDS 利用机器学习算法来检测表明恶意活动的异常和模式,从而提高威胁检测的速度和准确性 (Hussain et al., 2021)。然而,对复杂的“黑盒”人工智能模型的日益依赖引发了人们对其透明度和可信度的重大担忧,尤其是在网络安全等关键应用中 (Zhang et al., 2020)。问题陈述
摘要。ChatGPT 以其对提示生成详细、原创和准确响应的能力震惊了世界。然而,虽然它为以前被认为无法解决的问题提供了解决方案,但它也引入了新的问题。其中一个问题就是被称为幻觉的现象,即生成的内容无意义或与提供的源内容不符。在这项工作中,我们提出了 SenticNet 8,这是一个利用常识知识表示和分层注意力网络集合的神经符号 AI 框架,旨在缓解情感计算背景下的一些问题。特别是,我们专注于情绪分析、性格预测和自杀意念检测的任务。结果表明,SenticNet 8 在所有四个基线(即:词袋、word2vec、RoBERTa 和 ChatGPT)上均表现出卓越的准确率。此外,与这些基线不同的是,SenticNet 8 也是完全可解释、值得信赖和可说明的。