透明度被广泛认为对于人工智能 (AI) 在现实世界中的负责任部署至关重要,也是建立对 AI 的信任的必要先决条件。实现透明度的方法有很多种,其中一种很有前途的尝试是以人为本的解释。然而,很少有研究关注以人为本的解释对最终用户信任的有效性。现有实证研究的比较之所以复杂,是因为信任的衡量方式不同。一些研究人员使用问卷来衡量主观信任,而另一些研究人员则衡量客观的信任相关行为,如依赖。为了弥合这些差距,我们研究了两种有前途的以人为本的事后解释——特征重要性和反事实——对信任和依赖的影响。我们在决策实验 (N = 380) 中将这两种解释与控制条件进行了比较。结果表明,以人为本的解释可以显著增加依赖性,但决策类型(提高价格还是降低价格)的影响更大。这挑战了透明度在涉及人工智能的人类决策中相对于其他因素(例如潜在的启发式和偏见)的假定重要性。我们得出结论,信任并不一定等同于依赖,并强调了适当、经过验证和商定的指标对于设计和评估以人为本的人工智能的重要性。
主要关键词