Loading...
机构名称:
¥ 1.0

现有的信任理论假设受托人具有代理权(即意向性和自由意志)。我们认为,信任人工智能 (AI) 与信任人类之间的一个关键的定性区别在于信任者(人类)对受托人的代理权归因程度。我们指定了两种机制,通过这些机制,代理权归因的程度可以影响人类对人工智能的信任。首先,如果人工智能被视为更具代理性,受托人(人工智能)的仁慈的重要性就会增加,但如果它违反信任(由于背叛厌恶,参见 Bohnet & Zeckhauser,2004),预期的心理成本也会增加。其次,仁慈和能力的归因对于对看似无代理的人工智能系统建立信心变得不那么重要,相反,对系统设计者的仁慈和能力归因变得重要。这两种机制都意味着让人工智能看起来更具代理性可能会增加或减少人类对它的信任。虽然人工智能技术的设计者经常努力赋予他们的作品以传达其仁慈本质的特征(例如通过拟人化或透明度),但这也可能改变代理感知,导致它在人类眼中变得不那么值得信赖。关键词:人工智能;信任;代理;背叛厌恶 JEL 分类:M00、M14、Z10

人工智能、信任和代理认知

人工智能、信任和代理认知PDF文件第1页

人工智能、信任和代理认知PDF文件第2页

人工智能、信任和代理认知PDF文件第3页

人工智能、信任和代理认知PDF文件第4页

人工智能、信任和代理认知PDF文件第5页

相关文件推荐

2021 年
¥2.0
2021 年
¥1.0
2021 年
¥1.0
2022 年
¥8.0
2022 年
¥1.0
2022 年
¥1.0
2021 年
¥1.0
2022 年
¥1.0