作为人工智能(AI)模型,尤其是深层神经网络,在各个领域都取得了成功,因此对它们的可解释性产生了关注。这些“黑匣子”模型通常会不透明地运行,因此很难理解其推理。缺乏解释性提出了可信赖,问责制和道德规范的问题,尤其是在医疗保健,金融和刑事司法等关键领域。本论文构成可解释的AI(XAI)作为一个跨学科领域,以应对技术,埃斯特尔,法律和设计挑战。提出了XAI方法的分类法,将其分类为可解释的模型,模型不合时宜的工具,特定于模型的工具,神经符号方法和可解释的生成AI(GenXAI)的可解释工具。诸如Shapley值,石灰和综合梯度之类的工具,并特别注意神经符号AI通过符号促进来增强神经网络可解释性的潜力。针对大型语言模型(LLM)的新兴XAI技术,例如检索增强生成(RAG)和代理抹布,以其能够获得可怜性和透明度的能力而探索。总结了这些工具的概述,其中根据定义的分类法和功能对每种方法进行分类。论文还探讨了用户体验(UX)的注意事项,重点关注具有可理解解释需求的数字系统的不同角色。XAI问题库是对库的研究,将各种问题,深度水平与量身定制的XAI工具相结合。法律和道德考虑,重点介绍了欧盟的GDPR和AI法案等法规,以及XAI如何支持合规性。最后,用于心脏病预测和解释的医疗保健领域中的石灰和抹布的经验表明了XAI的实际应用,展示了其在高风险场景中提高透明度和决策制定的能力。
主要关键词