可解释人工智能(XAI)中的良好解释
机构名称:
¥ 1.0

认知科学关于人们如何理解解释的见解对于开发可解释人工智能 (XAI) 中以用户为中心的稳健解释颇具指导意义。我调查了人们在构建解释和从中做出推断时表现出的主要倾向,这些倾向与为人工智能系统提供决策自动解释有关。我首先回顾了人们在构建解释时表现出的一些倾向的实验发现,包括解释深度错觉、直觉解释与反思解释以及解释立场的证据。然后,我考虑了人们如何推理因果解释的发现,包括推理抑制、因果折扣和解释简单性的证据。我认为,XAI 努力的核心是要求人工智能系统提供的自动解释应该对人类用户有意义。

可解释人工智能(XAI)中的良好解释

可解释人工智能(XAI)中的良好解释PDF文件第1页

可解释人工智能(XAI)中的良好解释PDF文件第2页

可解释人工智能(XAI)中的良好解释PDF文件第3页

可解释人工智能(XAI)中的良好解释PDF文件第4页

可解释人工智能(XAI)中的良好解释PDF文件第5页

相关文件推荐

可解释的人工智能
2023 年
¥2.0
可解释的人工智能
2024 年
¥4.0
可解释的人工智能
2023 年
¥2.0
可解释的人工智能
2020 年
¥10.0
可解释人工智能对
2022 年
¥1.0
可解释的人工智能
2020 年
¥1.0