Loading...
机构名称:
¥ 1.0

摘要 随着人工智能 (AI) 在社会中的兴起,越来越多的人开始在日常生活中接触复杂且不透明的软件系统。这些黑盒系统通常难以理解,因此对最终用户来说并不可信。可解释人工智能 (XAI) 的研究表明,解释有可能解决这种不透明性问题,使系统更加透明和易于理解。然而,可解释性和可解释性之间的界限充其量是模糊的。虽然 XAI 中对可解释性有许多定义,但大多数定义都没有超越输出的合理性,即提供可解释性。与此同时,XAI 之外的当代研究已经采用了更广泛的可解释性定义,并研究了除算法及其输出之外的系统方面。在本立场文件中,我们认为 AI 系统的需求工程师需要考虑可解释性以外的可解释性要求。为此,我们提出了一个医疗领域的假设场景,该场景展示了 XAI 研究人员通常不会考虑的各种不同的可解释性要求。这篇文章旨在在 XAI 社区中引发讨论,并激励 AI 工程师在提出可解释性要求时跳出黑匣子。

超越可解释性的 AI 可解释性要求

超越可解释性的 AI 可解释性要求PDF文件第1页

超越可解释性的 AI 可解释性要求PDF文件第2页

超越可解释性的 AI 可解释性要求PDF文件第3页

超越可解释性的 AI 可解释性要求PDF文件第4页

超越可解释性的 AI 可解释性要求PDF文件第5页

相关文件推荐