用于自动决策的黑盒人工智能系统通常基于对(大)数据的机器学习,将用户的特征映射到一个类别或分数中,而不揭示原因。这不仅是由于缺乏透明度而成问题,而且还因为算法可能继承了人类的偏见和隐藏在训练数据中的收集伪影,从而导致不公平或错误的决策。人工智能的未来在于让人与机器合作解决复杂问题。与任何有效的合作一样,这需要良好的沟通、信任、清晰度和理解。可解释的人工智能解决了这些挑战,多年来,不同的人工智能社区一直在研究这样的主题,从而产生了不同的定义、评估协议、动机和结果。本讲座对迄今为止可解释人工智能(XAI)的工作进行了合理的介绍,并调查了相关文献,重点是机器学习和符号人工智能相关方法。我们激发现实世界和大规模应用中对 XAI 的需求,同时展示最先进的技术和最佳实践,并讨论许多未解决的挑战。
主要关键词