模型是人工智能可解释性 (XAI) 的主要趋势之一,表明其缺乏可解释性和社会后果。我们使用代表性消费者小组来测试我们的假设,报告了三个主要发现。首先,我们表明,黑盒模型的事后解释往往会提供有关算法底层机制的部分和偏见信息,并且可能会通过转移用户的注意力而受到操纵或信息隐瞒。其次,除了自我报告的感知指标之外,我们还展示了经过测试的行为指标的重要性,以提供对可解释性维度的更全面的看法。本文有助于阐明本质上透明的人工智能模型与黑盒复杂模型的事后解释之间的实际理论争论——这场争论很可能在未来人工智能系统的发展和操作化中发挥重要作用。