摘要 目前用于决策的许多人工智能 (AI) 系统都是不透明的,即由于系统的计算复杂性,人们并不完全了解决定其决策的内部因素。针对这一问题,一些研究人员认为,人类决策同样不透明,因为在人类案例中,简化、给出理由的解释(而不是详尽的因果解释)通常被视为足够的,因此对于算法决策也应如此。在这里,我认为这种论点忽略了人类决策有时比算法决策更加透明和值得信赖。这是因为,当人们通过给出理由来解释他们的决定时,这经常促使那些给出理由的人进行自我管理和调节,以便以证实其理由报告的方式思考和行动。AI 解释系统缺乏这种自我调节功能。在比较算法和人类决策时忽视这一点,可能会导致低估人类决策的透明度,并导致可解释的人工智能的发展,这种人工智能可能会通过激活关于推理的规范维度的普遍合理的信念来误导人们。