1 一些学者也将奈特不确定性定义为无法想象所有可能的结果(例如,Alvarez,Afuah 和 Gibson,2018),但这种观点在经济学家中并不常见。例如,Zeckhauser(2006)明确指出,奈特不确定性并不包括无法想象世界的所有未来状态——他称之为“无知”。
1,例如,斯坦福大学(2020)和Zycher(2006)认为,慷慨的药品支付政策的创新有益,而Bagley等人。(2015),Frank和Zeckhauser(2018)和Dranove等。 (2020)强调了慷慨的药物支付可能产生过多的增量创新的风险。 2这种模式有例外,一些私人保险计划在2012年之前采用限制性公式。 重要的是,这些早期的配方限制是由个人计划设定的,这与我们在本文中研究的2012年后限制不同,这些限制是由药房福利经理在集中谈判的,这些经理管理许多不同保险公司的保险范围。(2015),Frank和Zeckhauser(2018)和Dranove等。(2020)强调了慷慨的药物支付可能产生过多的增量创新的风险。2这种模式有例外,一些私人保险计划在2012年之前采用限制性公式。重要的是,这些早期的配方限制是由个人计划设定的,这与我们在本文中研究的2012年后限制不同,这些限制是由药房福利经理在集中谈判的,这些经理管理许多不同保险公司的保险范围。
r einformention学习(RL)是一种计算理论,讲述了确定最大化收集奖励的最佳行为(Bhui等,2021; Sutton&Barto,2018; Williams,1992)。rl是游戏中的成功策略(Silver等,2018; Tesauro,Gerald,1994),并有望成为理解神经加工的理论框架,尤其是在多巴胺神经元中(Hollerman&Schultz,1998; Kim等,2020),但请参见(Jeong et al。,2022年)。尽管RL的早期概念受到动物行为的启发(Sutton&Barto,1981),但将RL应用于自然行为仍然具有挑战性。主要是,行为往往是最佳的,违反了最佳行动政策(Akaishi等,2014,p。201; Akrami等,2018; Samuelson,William&Zeckhauser,Richard,Richard,Richard,Richard,1988)。行为次优的行为本身不会伪造RL理论;这是高估的探索量仍然令人困惑。
现有的信任理论假设受托人具有代理权(即意向性和自由意志)。我们认为,信任人工智能 (AI) 与信任人类之间的一个关键的定性区别在于信任者(人类)对受托人的代理权归因程度。我们指定了两种机制,通过这些机制,代理权归因的程度可以影响人类对人工智能的信任。首先,如果人工智能被视为更具代理性,受托人(人工智能)的仁慈的重要性就会增加,但如果它违反信任(由于背叛厌恶,参见 Bohnet & Zeckhauser,2004),预期的心理成本也会增加。其次,仁慈和能力的归因对于对看似无代理的人工智能系统建立信心变得不那么重要,相反,对系统设计者的仁慈和能力归因变得重要。这两种机制都意味着让人工智能看起来更具代理性可能会增加或减少人类对它的信任。虽然人工智能技术的设计者经常努力赋予他们的作品以传达其仁慈本质的特征(例如通过拟人化或透明度),但这也可能改变代理感知,导致它在人类眼中变得不那么值得信赖。关键词:人工智能;信任;代理;背叛厌恶 JEL 分类:M00、M14、Z10