Loading...
机构名称:
¥ 1.0

摘要可解释人工智能 (XAI) 方法试图通过生成解释来阐明复杂机器学习模型的决策过程。然而,对于大多数现实世界数据,没有“基本事实”解释,这使得评估 XAI 方法和模型决策的正确性变得困难。通常,视觉评估或轶事证据是唯一的评估类型。在这项工作中,我们建议使用国际象棋游戏作为“接近基本事实”(NGT) 解释的来源,可以使用各种指标将 XAI 方法与之进行比较,作为“健全性检查”。我们在深度卷积神经网络的实验中演示了这个过程,我们向该网络应用了一系列常用的 XAI 方法。作为我们的主要贡献,我们发布了 3000 万个国际象棋位置的数据集及其 NGT 解释,供 XAI 研究免费使用。

Check Mate:对值得信赖的人工智能进行健全性检查

Check Mate:对值得信赖的人工智能进行健全性检查PDF文件第1页

Check Mate:对值得信赖的人工智能进行健全性检查PDF文件第2页

Check Mate:对值得信赖的人工智能进行健全性检查PDF文件第3页

Check Mate:对值得信赖的人工智能进行健全性检查PDF文件第4页

Check Mate:对值得信赖的人工智能进行健全性检查PDF文件第5页

相关文件推荐