获取独家产品信息,尽享促销优惠!立即订阅,不容错过
* 限···时··优惠
人工智能取得了显著的成功,在某些任务上甚至在医学等复杂领域都比人类专家表现更好。另一方面,人类擅长多模态思维,可以几乎立即将新输入嵌入到由经验塑造的概念知识空间中。在许多领域,目标是建立能够自我解释的系统,参与交互式假设问题。这类问题被称为反事实问题,在可解释人工智能 (xAI) 这一新兴领域中变得越来越重要。我们的核心假设是,使用概念知识作为现实的指导模型将有助于训练更可解释、更稳健、偏差更小的机器学习模型,理想情况下能够从更少的数据中学习。医学领域的一个重要方面是各种模态对一个结果有贡献。我们的主要问题是“如何使用知识库作为开发新解释界面技术的初始连接器来构建多模态特征表示空间(涵盖图像、文本、基因组数据)?”。在本文中,我们主张使用图神经网络作为一种选择方法,实现多模态因果关系的信息融合(因果关系——不要与因果关系混淆——是人类专家对因果关系的解释达到特定理解水平的可衡量程度)。本文旨在激励国际 xAI 社区进一步研究多模态嵌入和跨