Loading...
机构名称:
¥ 1.0

摘要。几十年来,人们对可解释人工智能领域的兴趣一直在增长,最近更是加速增长。随着人工智能模型变得越来越复杂,而且往往越来越不透明,并结合了复杂的机器学习技术,可解释性变得更加重要。最近,研究人员一直在以用户为中心研究和解决可解释性问题,寻找考虑可信度、可理解性、明确出处和情境感知的解释。在本章中,我们利用对人工智能和密切相关领域的解释文献的调查,并利用过去的努力来生成一组解释类型,我们认为这些解释类型反映了当今人工智能应用对解释的扩展需求。我们定义了每种类型,并提供了一个示例问题来激发对这种解释风格的需求。我们相信这组解释类型将有助于未来的系统设计师生成和确定需求的优先级,并进一步帮助生成更符合用户和情境需求的解释。

可解释知识支持系统的方向

可解释知识支持系统的方向PDF文件第1页

可解释知识支持系统的方向PDF文件第2页

可解释知识支持系统的方向PDF文件第3页

可解释知识支持系统的方向PDF文件第4页

可解释知识支持系统的方向PDF文件第5页

相关文件推荐

2012 年
¥4.0
2022 年
¥1.0
2025 年
¥54.0
2021 年
¥2.0
2018 年
¥7.0
2022 年
¥1.0
2022 年
¥2.0
2013 年
¥6.0
2022 年
¥1.0
2021 年
¥1.0
2023 年
¥46.0