人工智能系统越来越多地被用于支持人类决策。适当地遵循人工智能建议非常重要。然而,根据现有文献,用户通常对人工智能系统的依赖程度过低或过高,这导致团队绩效不佳。在这种情况下,我们通过对比贷款预测任务中系统信息的缺乏与系统准确性的存在来研究所述系统准确性的作用。我们通过调查数字能力水平并借助类比来解释系统准确性,探索人类理解系统准确性的程度如何影响他们对人工智能系统的依赖,这是一项首创的受试者间研究 (𝑁 = 281)。我们发现,用类比来解释系统的所述准确性并不能帮助用户适当地依赖人工智能系统(即,用户倾向于在系统正确时依赖系统,否则依赖自己)。为了消除对类比领域的主观态度的影响,我们进行了一项受试者内研究(𝑁 = 248),其中每个参与者都从事来自不同领域的基于类比的解释的任务。第二项研究的结果证实,用类比来解释系统的准确性不足以促进在贷款预测任务中对人工智能系统的适当依赖,无论个人用户有何差异。根据我们从这两项研究中得出的结论,我们推断,对人工智能系统的依赖不足可能是由于用户高估了自己解决给定任务的能力。因此,尽管熟悉的类比可以有效地提高系统所述准确性的可理解性,但对系统准确性的更好理解并不一定会导致系统依赖性和团队绩效的提高。
国家之间的冲突呈现出新的形式,网络行动在这种日益动荡的环境中发挥着主导作用,使其成为各国最关键的安全问题之一。据外交关系委员会称,自 2005 年以来,有 34 个国家涉嫌赞助网络行动。1 尽管活动水平很高,但公众对各国攻击性网络能力的了解却相对较少。尽管外交界普遍担心网络空间的紧张局势正在升级,民族国家之间发生灾难性网络交战的可能性不断上升。这种灾难很可能是意外发生的。避免“意外升级”——或意外战争——仍然是国家之间在网络空间面临的最重大挑战。
