Guiso,Sapienza和Zingales(2009)以及Fernandez and Fogli(2009)表明,第二代或第三代移民的某些行为模式(例如生育和妇女劳动力供应)与该国的这些变量高度相关。他们认为渠道必须是文化的。
摘要 本文重点关注“黑匣子”人工智能在医学中的应用,并询问医生是否需要向患者披露,即使是最好的人工智能也存在网络攻击、系统性偏见以及人工智能隐含假设与个别患者背景情况之间特定类型的不匹配的风险。根据目前的临床实践,我认为在某些情况下,这些风险确实需要披露。否则,医生要么会破坏患者的知情同意,要么会违反更普遍的义务,即警告患者潜在的有害后果。为了支持这一观点,我认为,首先,风险评估中已经被广泛接受的条件,即风险的“性质”和“可能性”,有利于披露;其次,反对披露这些风险的原则性反对意见经不起推敲。此外,我还解释说,这些风险因 COVID-19 危机等流行病而加剧,这进一步强调了它们的重要性。
摘要 人工智能系统经常被发现存在性别偏见。由于这些性别偏见,人工智能通常无法充分认识到女性的需求、权利和成就。在本文中,我们使用阿克塞尔·霍耐特的承认理论来论证人工智能的性别偏见不仅是一个道德问题,因为它们可能导致歧视,而且因为它们类似于可能损害女性自我发展和自我价值的错误认识。此外,我们认为,霍耐特的承认理论为我们提供了一个富有成效的框架,以增进我们对现代技术中性别偏见的心理和规范含义的理解。此外,我们对人工智能中性别偏见的霍耐特分析表明,负责任的人工智能的目标要求我们不仅通过技术干预来解决这些问题,而且还通过改变我们相互承认和拒绝承认的方式来解决这些问题。
摘要 本文对法律人格的概念进行了分析,并讨论了是否可以赋予人工智能系统(AI)人格。法律人格将被视为一个包含权利和义务的理论范畴;因此,我们首先将其构建为事实前提条件和法律效果之间的推理联系节点。然而,这种推论式的解读并没有考虑到法律人格的“背景原因”,即它没有解释为什么我们将不同的情况归入这一理论范畴,以及法律以外的信息是如何融入其中的。我们认为,解释这一背景的一种方法是采用新制度视角,用另一个层次,即元制度视角来更新法律概念的本体论。我们最后指出,元制度概念还可以帮助我们在涉及将人工智能纳入(或不包括)法人的法律政策选择方面找到平衡。
比以往任何时候都更加紧急地需要新的科学知识,以应对气候变化,可持续性,健康和社会福祉等全球挑战。人工智能(AI)可以加速科学以及时应对这些全球挑战吗?AI已经在彻底改变了个人科学学科,但是我们在这里认为这可能是更全面的和包容的。我们将虚拟实验室的概念介绍为科学知识产生的新观点,并激励新的AI研究和发展。尽管经常有特定于领域的研究实践和固有的隐性知识,但我们认为,研究过程的许多要素跨科学领域复发,即使是用于为不同领域服务的通用软件平台也是可能的。我们概述了虚拟实验室如何使AI研究人员更容易为广泛的科学领域做出贡献,并强调虚拟实验室为AI和域科学家提供的共同利益。
摘要 在本文中,我们研究了开放战略研究中的一个关键因素:参与。通过借鉴基于注意力的观点,我们认为开放战略的模拟和数字实践的参与程度是“注意力竞赛”的结果。这些注意力竞赛的出现是因为开放战略计划(作为准临时组织)的注意力结构和主要组织的注意力争夺参与者有限的注意力。当这些注意力结构发生冲突时,就会出现四种紧张关系(过程模糊、状态转变、时间限制和身份转变)。我们认为这些紧张关系的影响取决于开放战略实践的类型;数字或模拟形式的开放战略制定。因此,我们对参与者参与开放战略计划的原因和方式提出了新的理论理解。在此基础上,我们提供了企业如何促进有意义的参与这些不同实践的各种机制。本文为未来的开放战略和参与研究开辟了有希望的途径。
摘要 尼古拉斯·阿加尔、杰夫·麦克马汉和艾伦·布坎南都对将人类增强到远超物种典型范围的程度表示担忧。他们认为,通过提高道德地位或更强的基本权利要求,彻底增强的生物将有权享受更多、更有利的待遇。我对这些说法提出质疑,首先我认为新兴技术可能会让增强者直接控制自己的精神状态。我们目前对精神生活缺乏控制,这极大地加剧了我们的脆弱感。然后我认为应该从脆弱性的角度来看待道德地位。增强者将慢慢获得控制自己精神状态的能力,从而降低他们的脆弱性。这些彻底增强的生物将拥有更强大的能力,可能拥有比我们更有价值的内心生活。他们的脆弱性也会降低,因此,他们的道德地位将从属于我们。
摘要黑匣子算法在医学中的使用引起了学术界的不透明和缺乏可信赖性的关注。关注潜在的偏见,问责制和责任,患者自主权和通过黑匣子算法疏散的信任疏散。这些担忧将认知问题与规范问题联系起来。在本文中,我们概述了黑匣子算法出于认知的原因比许多学者似乎相信的要小。通过概述并非总是需要更多的算法透明度,并且通过解释计算过程对人类的方法论确实是不透明的,我们认为算法的可靠性提供了信任医疗人工智能(AI)的结果的原因。为此,我们解释了如何不需要透明度并支持算法的可靠性的计算可靠性,这证明了将医疗AI的结果信任的信念是合理的。我们还认为,即使结果值得信赖,黑匣子算法仍然存在一些道德问题。因此,从可靠指标中获得合理的知识是必要的,但不足以证明医生采取行动。这意味着需要对可靠算法的结果进行审议,以找出什么是理想的行动。因此,我们认为,这种挑战不应完全驳回黑匣子算法的使用,而应告知这些算法的设计和实施方式。训练医生以获取必要的技能和专业知识,并与医学信息学和数据科学家合作时,黑匣子算法可以有助于改善医疗服务。
摘要国家卫生局(NHS)是全球第一个宣布雄心勃勃的医疗体系。为了实现这一目标,需要从含有强大温室气体的计量剂量吸入器转移。许多患者可以使用不含温室气体且在管理呼吸系统疾病方面同样有效的干粉吸入器。本文讨论了NHS试图减轻气候变化时出现的道德问题。两个道德问题构成了远离计量剂量吸入剂的障碍:拒绝碳足迹较小并增加成本的吸入器的患者。我认为,尽管由于预期的危害,患者在拒绝更环保的吸入器方面没有道德上有道理,但医生仍然可以开处方计量剂量吸入器,如果他们认为未经同意的转换可能会破坏信任或严重恶化患者的健康状况。转向成本,我认为应对气候变化的必要性意味着NHS应接受较低的碳吸入剂的较小的财务成本,即使这对患者没有额外的直接收益。然后,我继续考虑前面分析对政策和实践的含义。我主张一项政策,该政策通过倡导环境处方原则并探索实践中的决策原则来最大程度地减少吸入器对气候的影响。虽然这里的论点主要与吸入器有关,但讨论对围绕医疗保健在环境上可持续的责任的辩论具有更广泛的影响。