Loading...
机构名称:
¥ 2.0

摘要:随着计算能力的提高和海量数据集的增长,人工智能(AI)得到了迅速发展。然而,这一进步也增加了解释人工智能模型“黑箱”性质的挑战。为了解决这些问题,可解释人工智能(XAI)应运而生,它注重透明度和可解释性,以增强人类对人工智能决策过程的理解和信任。在多模态数据融合和复杂推理场景的背景下,多模态可解释人工智能(MXAI)的提出将多种模态集成在一起用于预测和解释任务。同时,大型语言模型(LLM)的出现导致了自然语言处理方面的重大突破,但它们的复杂性进一步加剧了 MXAI 的问题。为了深入了解 MXAI 方法的发展,并为构建更透明、公平和值得信赖的 AI 系统提供重要指导,我们从历史角度回顾了 MXAI 方法,并将它们分为四个时代:传统机器学习、深度学习、判别基础模型和生成式 LLM。我们还回顾了 MXAI 研究中使用的评估指标和数据集,最后讨论了未来的挑战和方向。与此评论相关的项目已在 https://github.com/ShilinSun/mxai review 上创建。

多模态可解释人工智能综述

多模态可解释人工智能综述PDF文件第1页

多模态可解释人工智能综述PDF文件第2页

多模态可解释人工智能综述PDF文件第3页

多模态可解释人工智能综述PDF文件第4页

多模态可解释人工智能综述PDF文件第5页