为什么解释未能提高人类的表现?虽然这是一个很难回答的问题,但现有的结果提供了一些线索。首先,Lai 等人 (2020) 指出了两种不同类型的人工智能学习问题:模拟人类技能与发现新知识 [ 10 ]。他们推测,在后一种情况下,人类可能没有足够强的任务直觉来有效利用简单的解释,从而需要额外的训练 [ 10 ]。即使在模拟任务中,模型也可能会偶然学习到与人类直觉不太吻合的模式,正如 Feng 等人 (2018) 在用于情绪分析的 LSTM 模型中观察到的那样 [ 4 ]。与其他模型相比,解释可能更适合捕捉某些类型的模型错误:Carton 等人 (2019) 发现,解释可能更适合捕捉某些类型的模型错误。 (2020) 观察到它们减少了假阳性,同时增加了假阴性,推测受试者发现推翻被错误识别为有毒的短语比发现模型遗漏的真正有毒的短语更容易 [ 3 ]。