可解释人工智能的神经符号视角
机构名称:
¥ 1.0

摘要。我们讨论了在可解释人工智能 (XAI) 研究领域中使黑盒模型更易于解释的观点。我们认为,用于训练深度学习 (DL) 模型的传统端到端学习方法不符合 XAI 的宗旨和目标。回到手工特征工程的想法,我们建议对 XAI 采用混合 DL 方法:我们建议使用 DL 自动检测有意义的、手工设计的高级符号特征,而不是采用端到端学习,然后由标准且更易于解释的学习模型使用这些特征。我们在概念验证中举例说明了这种混合学习模型,该模型基于最近提出的 Kandinsky 模式基准,重点关注管道的符号学习部分,同时使用逻辑张量网络和可解释规则集合。在证明所提出的方法能够提供高度准确且可解释的模型之后,我们将讨论潜在的实施问题和可以探索的未来方向。

可解释人工智能的神经符号视角

可解释人工智能的神经符号视角PDF文件第1页

可解释人工智能的神经符号视角PDF文件第2页

可解释人工智能的神经符号视角PDF文件第3页

可解释人工智能的神经符号视角PDF文件第4页

可解释人工智能的神经符号视角PDF文件第5页

相关文件推荐

可解释的人工智能
2023 年
¥2.0
可解释的人工智能
2024 年
¥4.0
可解释的人工智能
2023 年
¥2.0
可解释的人工智能
2020 年
¥10.0
可解释人工智能对
2022 年
¥1.0
神经符号人工智能
2021 年
¥1.0
可解释的人工智能
2020 年
¥1.0