摘要 评估人工智能 (AI) 的主要困难之一是人们倾向于将其拟人化。当我们将人类的道德活动与人工智能联系起来时,这一点尤其成问题。例如,欧盟委员会人工智能高级专家组 (HLEG) 采取的立场是,我们应该与人工智能建立信任关系,并培养值得信赖的人工智能 (HLEG 人工智能伦理指南,2019 年,第 35 页)。信任是人际关系中最重要和最具决定性的活动之一,因此提出人工智能应该被信任是一个非常严肃的说法。本文将表明,根据最普遍的信任定义,人工智能不可能是具有被信任能力的东西,因为它不具备情感状态,也不能对自己的行为负责——这是情感和规范信任的要求。虽然人工智能满足了理性信任的所有要求,但本文将表明,这实际上根本不是一种信任,而是一种依赖。最终,即使是像人工智能这样复杂的机器也不应被视为值得信任,因为这会破坏人际信任的价值、将人工智能拟人化,并转移开发和使用人工智能的人的责任。
主要关键词