本文试图将当代市场和州基于州的监视和监视制度置于道德经济框架之内,目的是开发一种社会学方法,以解决道德上的失败经济。本文首先要回顾不同政治,经济和文化背景的道德经济及其在历史和当代的应用。然后,它阐明了一种道德经济的方法,该方法将重点放在构成经济和社会关系及其相关实践的规范和情感上,以及这些实践合法化的方式。之后,本文探讨了有关不同空间失败的文献,包括市场失败,估值制度和创新。我们专注于组织和专业失败,市场失败,治理和政策失败以及创新和实验主义中的失败。在每种情况下,讨论都将失败的奖学金与道德经济有关,强调了两者之间的相互关系以及与失败相关的实践如何被重新构成和合法化。我们的讨论强调了失败的双重标准。对于某些人来说,通常是富裕而有力的,有可能拥抱失败。将其作为一个适应能力,生存的能力的例子,以接受新的想法和个人的韧性,从经验中学习和成长。,但在其他情况下,特别是对于生活在贫困中的人,边际团体以及种族剖析的人,失败会引起羞耻,污名和惩罚。我们结论是,要解决针对道德失败经济的研究议程需要建立在社会历史上对不同情况,文化和环境中失败的理解。我们建议这提供了一种识别进步期货的方法,并充当了对当代对成功和创新的主要炒作的解毒剂。关键字:失败;道德经济;治理;创新;实验主义。
例如,我们可能会以儿童为中心的观点,根据该观点,人们有权通过成为该孩子的最佳或“足够或“足够”的父母来父母。谁被认为是任何给定孩子的最佳父母,都不必是孩子的生物繁殖者,假设可以确定卓越育儿的适当评估标准。妊娠主义观点所基于的论点通常是这样运行的。到出生时,妊娠计划与她的孩子之间的亲密关系等于非蒙克的宝贵商品,即妊娠pro养家和她的妊娠胎儿都对主体有兴趣。iv带生孩子远离亲生父母将破坏相当大的正常价值。因此,应以道德权利的形式保护这种关系。我在这里评估了两个论点,以捍卫这一想法,并认为它们都不相信。在下一部分中,我讨论了一个论点,该论点是根据胎儿与妊娠蜜饯之间的关系是一种与特殊价值的亲密关系。在第三部分中,我评估了一个论点,该论点是捍卫了这样一种观念,即存在着一种关系,即对孩子与妊娠繁殖者分离会受到伤害的想法。我在第4节中得出结论。我的讨论的一个结果是,关于偏见的最基本要素之一,对生物儿童的偏见之一的故事并不像一个人可能希望的那样“整洁”,我们将不得不求助于替代性辩护,以捍卫我们对父母派别的辩护之一。
机器人和人工智能 (AI) 系统的道德地位已成为规范研究中广泛争论的话题。然而,这场讨论主要集中在那些为社会功能而开发的系统上,例如社交机器人。鉴于社会与非社会机器的相互依存日益加深,研究如何将现有的规范性主张扩展到特定的混乱领域,如艺术行业,已变得势在必行。受到 Gunkel 和 Coeckelbergh 提出的将机器的道德地位建立在社会关系基础上的提议的启发,本研究提出了在线实验 (N 448),测试与人工智能生成的艺术作品的互动是否以及如何影响人们感知到的其创作者(即人工智能生成系统)的道德地位。我们的结果表明,评估人工智能系统是否缺乏心智可能会影响人们随后对人工智能生成的艺术作品的评价。我们还发现,对人工智能生成的图像的高估可能会对其创作者感知到的能动性产生负面影响。然而,我们的实验并未表明与人工智能生成的艺术作品互动对机器的道德地位有任何显著影响。这些发现表明,人工智能权利的社会关系方法可能与基于财产的道德地位论点交织在一起。我们通过揭示公众对这一问题的看法,阐明了实证研究如何为人工智能和机器人权利辩论做出贡献。
道德心理学围绕三类主体和患者形成:人类、其他动物和超自然生物。人工智能的快速发展为我们的道德心理学带来了第四类需要处理的事物:智能机器。机器可以充当道德主体,做出影响人类患者结果的决策,或在无人监督的情况下解决道德困境。机器可以被视为道德患者,其结果可能受到人类决策的影响,这对人机合作产生重要影响。机器可以是道德代理人,人类主体和患者将其作为代表派往道德互动中,或用作这些互动中的伪装。在这里,我们回顾了关于机器作为道德主体、道德患者和道德代理人的实验文献,重点关注最新发现及其提出的未决问题。
∗ Ito:芝加哥大学哈里斯公共政策学院,1155 East 60th St.,芝加哥,IL 60637,和 NBER(电子邮件:ito@uchicago.edu)。Ida:京都大学经济学研究生院,吉田,左京,京都 606-8501,日本(电子邮件:ida@econ.kyoto-u.ac.jp)。Tanaka:国家政策研究大学院大学,7-22-1,东京都港区六本木,106-8677,日本(电子邮件:mtanaka@grips.ac.jp)。作者感谢 Tetsuya Kawa-mura 提供的出色研究协助。我们感谢 Hunt Allcott、Masahiko Aoki、Severin Borenstein、Lucas Davis、Liran Einav、Meredith Fowlie、Takeo Hoshi、Caroline Hoxby、Katrina Jessoe、Paul Joskow、Ryan Kellogg、Chris Knittel、David Laibson、Michael Price、Steve Puller、Matthew Rabin、Dave Rapson、Catherine Wolfram、Frank Wolak 以及麻省理工学院、哈佛大学、斯坦福大学、加州大学伯克利分校、加州大学戴维斯分校、东京大学、一桥大学、美国国家经济研究局暑期学院、美国能源部年会、POWER 能源研究与政策会议、RIETI 和欧洲经济研究中心的研讨会参与者提出的有益意见。我们感谢日本经济产业省、京都府、关西电力公司和三菱重工业株式会社在本研究中的合作。我们感谢新能源促进委员会的资金支持。伊藤感谢哈斯商学院能源研究所和斯坦福经济政策研究所的资金支持。
⁸这些相关性是由功率良好的验证练习引起的,特别是因为我们设计了研究,以减少测量误差。首先,因为我们专注于验证普遍主义的概述统计数据,因此通过在社会群体之间平均分配资金来减少测量误差。第二,通过ORIV技术进一步降低了测量误差。,鉴于我们发现的Oriv相关性和相应的样本量,具有90%的功率,我们将能够检测到利他主义中未引起的和激励性普遍主义之间的最小相关性ρ= 0.34。有关其他功率分析,请参见附录A.2.4。
道德心理学围绕三类主体和患者形成:人类、其他动物和超自然生物。人工智能的快速发展为我们的道德心理学带来了第四类需要处理的事物:智能机器。机器可以充当道德主体,做出影响人类患者结果的决策,或在无人监督的情况下解决道德困境。机器可以被视为道德患者,其结果可能受到人类决策的影响,这对人机合作产生重要影响。机器可以是道德代理人,被人类主体和患者派去作为道德互动的代表,或在这些互动中用作伪装。在这里,我们回顾了关于机器作为道德主体、道德患者和道德代理人的实验文献,重点关注最新发现及其提出的未决问题。
道德心理学围绕三类主体和患者形成:人类、其他动物和超自然生物。人工智能的快速发展为我们的道德心理学带来了第四类需要处理的事物:智能机器。机器可以充当道德主体,做出影响人类患者结果的决策,或在无人监督的情况下解决道德困境。机器可以被视为道德患者,其结果可能受到人类决策的影响,这对人机合作产生重要影响。机器可以是道德代理人,被人类主体和患者派去作为道德互动的代表,或在这些互动中用作伪装。在这里,我们回顾了关于机器作为道德主体、道德患者和道德代理人的实验文献,重点关注最新发现及其提出的未决问题。