因果关系和可解释人工智能 (XAI) 是计算机科学中独立的领域,尽管因果关系和解释的基本概念有着共同的古老根源。由于缺乏共同涵盖这两个领域的评论工作,这种情况进一步加剧。在本文中,我们调查了文献,试图了解因果关系和 XAI 是如何以及在多大程度上交织在一起的。更准确地说,我们试图揭示这两个概念之间存在什么样的关系,以及如何从中受益,例如,在建立对人工智能系统的信任方面。结果,确定了三个主要观点。在第一个观点中,因果关系的缺乏被视为当前人工智能和 XAI 方法的主要局限性之一,并研究了“最佳”解释形式。第二个是务实的观点,将 XAI 视为一种工具,通过识别值得追求的实验操作来促进因果探究的科学探索。最后,第三个观点支持因果关系对 XAI 具有先导性的观点,其方式有三种:利用从因果关系中借用的概念来支持或改进 XAI、利用反事实来解释,以及将访问因果模型视为自我解释。为了补充我们的分析,我们还提供了用于自动执行因果任务的相关软件解决方案。我们相信,通过强调潜在的领域桥梁并揭示可能的局限性,我们的工作为因果关系和 XAI 这两个领域提供了统一的视角。
人工智能 (AI),尤其是深度学习模型的成功,使其在各行各业得到了广泛应用,因为它们能够处理大量数据并学习复杂的模式。然而,由于它们缺乏可解释性,人们对其在金融和医疗保健等关键领域的使用存在重大担忧,因为决策透明度至关重要。在本文中,我们对旨在提高金融背景下深度学习模型可解释性的方法进行了比较调查。我们根据可解释的人工智能方法的相应特征对其进行了分类,并回顾了采用可解释的人工智能方法的顾虑和挑战,以及我们认为合适且重要的未来方向。
摘要 使用机器学习开发的模型在科学研究中越来越普遍。与此同时,这些模型是出了名的不透明。可解释人工智能旨在通过使不透明的模型变得透明来减轻不透明性的影响。然而,可解释人工智能不仅仅是一个问题的解决方案,它还可以在科学探索中发挥宝贵的作用。本文介绍了如何使用可解释人工智能的事后分析技术来细化医学科学中的目标现象,确定未来研究(潜在)因果关系的起点,并为认知科学中的目标现象提供可能的解释。通过这种方式,本文描述了可解释人工智能(超越机器学习本身)如何为数据驱动的科学研究的效率和范围做出贡献。
摘要:随着机器学习模型的性能和复杂性在过去几年中显著增长,开发描述其行为的方法的需求也日益增加。这种需求主要是由于黑盒模型的广泛使用而产生的,黑盒模型即高性能模型,其内部逻辑难以描述和理解。因此,机器学习和人工智能领域面临着一个新的挑战:通过适当的技术使模型更易于解释。可解释性方法的最终目标是忠实地向用户描述(黑盒)模型的行为,使用户能够更好地理解其逻辑,从而增加对系统的信任和接受度。不幸的是,最先进的可解释性方法可能不足以确保从人类角度完全理解解释。因此,人机交互方法已被广泛用于增强和/或评估机器学习模型的解释。这些方法侧重于收集人类知识,然后人工智能系统可以使用这些知识或让人类参与其中以实现其目标(例如,评估或改进系统)。本文旨在概述通过人机交互方法收集和使用人类知识来改善和评估机器学习模型的可理解性的文献。此外,本文还讨论了可解释性方面的挑战、最新进展和未来趋势。
人工智能 (AI) 系统的准确性和灵活性通常以降低对其预测提供直观解释的能力为代价。这阻碍了人们对 AI 的信任,并阻碍了其在医疗保健领域的应用,而对误诊造成的责任和患者健康风险的担忧加剧了这种担忧。由于可解释机器学习领域的最新进展,为模型的预测提供解释是可能的。我们考虑了一组与抗生素处方记录和细菌分离株敏感性相关的医院入院数据。经过适当训练的梯度增强决策树算法,辅以 Shapley 解释模型,可预测可能的抗菌药物耐药性,耐药性的几率取决于患者的特征、入院数据、历史药物治疗和培养测试结果。应用这个基于 AI 的系统,我们发现与观察到的处方相比,它大大降低了治疗不匹配的风险。Shapley 值提供了观察/数据与结果之间的直观关联;所确定的关联与基于健康专家的先验知识的预期大致一致。研究结果以及归因信心和解释的能力支持人工智能在医疗保健领域的更广泛应用。
由爱达荷大学图书馆用户于 2022 年 5 月 27 日从 http://direct.mit.edu/dint/article-pdf/doi/10.1162/dint_a_00119/1987143/dint_a_00119.pdf 下载
背景:人工智能 (AI) 的进步为各个领域带来了众多好处。然而,它也带来了必须解决的道德挑战。其中之一是人工智能系统缺乏可解释性,即无法理解人工智能如何做出决策或产生结果。这引发了人们对这些技术的透明度和可问责性的质疑。这种可解释性的缺乏阻碍了人们对人工智能系统如何得出结论的理解,这可能导致用户不信任并影响此类技术在关键领域(例如医学或司法)的采用。此外,人工智能算法中还存在有关责任和偏见的道德困境。方法:考虑到上述情况,从伦理角度研究可解释人工智能的重要性存在研究空白。研究问题是人工智能系统缺乏可解释性的伦理影响是什么,以及如何解决这个问题?这项工作的目的是了解这个问题的伦理影响并提出解决它的方法。结果:我们的研究结果表明,人工智能系统缺乏可解释性会对信任和问责产生负面影响。用户可能会因为不理解某个决定是如何做出的而感到沮丧,这可能会导致对技术的不信任。此外,缺乏可解释性使得很难识别和纠正人工智能算法中的偏见,而偏见可能会导致不公正和歧视。结论:这项研究的主要结论是,人工智能必须在伦理上可解释,以确保透明度和问责制。有必要开发工具和方法,以便了解人工智能系统如何工作以及如何做出决策。促进人工智能、伦理和人权专家之间的多学科合作也很重要,以全面应对这一挑战。
A. DURGA DEVI MADAM 1,KATHULA KARUNA 2,1 助理教授,MCA 系,Dantuluri Narayana Raju 学院,Bhimavaram,安达拉邦
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.