摘要 生物保守派生物伦理学家(例如 Kass,2002,《人类尊严与生物伦理学》,297-331,2008;Sandel,2007;Fukuyama,2003)提出了各种反对认知增强的哲学论点,即使用药物和技术使我们自己“比健康更好”,而不是仅仅治疗病症。两个值得注意的生物保守派论点诉诸于关于 (1) 成就的价值和 (2) 真实性的理念。本文表明,即使这些来自成就和真实性的论点能够有力地反对特定药物驱动的认知增强,但它们并不能延伸到一种越来越可行的技术认知增强形式,即通过增强现实实现的认知增强。一个重要的结果是,旨在提高某些认知任务表现的 AR 驱动的认知增强可能为认知增强的支持者提供一种有趣的“最佳点”,使我们能够追求增强倡导者的许多目标,而不会遭遇生物保守主义哲学家的一些最突出的反对。
神经科学和人工智能的最新发展使得机器能够越来越准确地解码心理过程。神经伦理学家推测,完善这些技术可能会导致各种反应,从侵犯隐私到增进自我理解。然而,由于人们不善于预测自己的反应,评估这些预测很困难。为了解决这个问题,我们开发了一个范式,使用表演魔术的元素来模拟未来的神经技术。我们让 59 名参与者相信一台(假的)神经技术机器可以推断他们的偏好,发现他们的错误,并揭示他们根深蒂固的态度。机器向参与者随机分配关于他们大脑对慈善态度的正面或负面反馈。两组中约有 80% 的参与者对这种反馈提供了合理化解释,这使他们的态度朝着操纵的方向转变,但不会影响捐赠行为。我们的范式揭示了人们对未来的神经技术的反应,这可能会为神经伦理框架提供信息。
但作者们往往不愿使用“优生学”一词,原因显而易见。这是因为优生学与美国和纳粹德国的强制绝育计划、纳粹对残疾人实施安乐死的计划以及二战期间对犹太人和罗姆人的大规模屠杀和种族灭绝企图有关。优生学一直有一些支持者,他们拒绝国家在指导生育选择方面发挥作用,有人认为国家应该通过向准父母提供信息或为基因干预提供补贴来影响父母的选择,也有人认为国家应该发挥重要作用,包括使用广泛的强制手段。虽然当代生物伦理学家对国家是否应该在帮助父母履行生育义务方面发挥作用存在分歧,但没有人认为国家应该参与大规模绝育或谋杀本国公民。换句话说,人们一致反对纳粹式的优生学计划。然而,“优生学”在公众心目中越来越多地与其最严重的滥用联系在一起。
摘要 许多技术伦理学家认为,现在是时候阐明神经权利了:我们对大脑和心灵的规范性主张。其中一项主张就是精神完整性(“MI”)的权利。我首先考虑对 MI 的一些典型威胁(§1),以及占主导地位的基于自主性的 MI 概念(“ABC”)如何试图理解它们(§2)。接下来,我考虑了反对意见,即 ABC 在理解威胁 MI 的因素方面过于宽泛,并建议对 ABC 进行友好修改以解决该反对意见(§3)。然后,我考虑第二个反对意见:ABC 无法理解非自主的 MI。即使对于修订后的 ABC 来说,这个反对意见似乎也是致命的(§4)。在此基础上,我提出了另一种概念,MI 基于多种更简单的能力,即情感、认知和意志。这些更基本的能力中的每一种都为一系列基本利益奠定了基础,因此,即使它们没有达到自治所必需的复杂程度(§5),它们也值得保护。这产生了一个完全普遍的 MI 理论,可以解释其在自治和非自治中的表现。
摘要 人工智能 (AI) 有望彻底改变美国和世界各地的医疗保健服务。随着 AI 成为医疗保健工作流程不可或缺的一部分,它将改变我们建模和分析医疗保健服务的方式,并颠覆决定运筹学和管理科学研究人员与医疗保健从业者互动方式的范式。在本教程中,我们将展示 AI 融入医疗保健工作流程将如何从根本上改变医疗保健服务,同时需要一套新的模型来指导快速变化的医疗保健实践,衡量行业的生产率增长,并减少获得医疗服务的差距。这些模型应建立在对影响各种利益相关者的因素的透彻理解之上,例如患者、提供者、付款人、生物伦理学家、监管机构和投资者。尽管医疗保健 AI 有望根据用户交互和数据进行学习和适应,但开发、验证和批准流程需要创建能够产生有用见解的新模型。最后,我们讨论了与医疗保健领域 AI 的监管和报销问题相关的障碍和机遇。
在成本降低,材料的可用性和可靠性以及植入设备的方式方面,神经技术(NT)的增长领域变得越来越容易获得。与其他工程领域(例如生物或信息技术)一样,越来越多的开拓性黑客社区(自我)尝试NT并开发新颖的应用。虽然大多数关于NT的争论,但其目标和伦理后果通常是由该领域的专业人员(神经科学家, - 工程师, - 伦理学家)进行的,但在这些制度性框架中,关于Neurohackers的动机,目标和视野以及如何看待NT Terapeutics vs.人类增强的伦理后果。在这项研究中,我们借鉴了与13位神经狂热的先驱者的定性访谈,他们从基层的角度与NT互动(即一种自下而上的和社区/亚文化的方法),并阐明了:他们如何在人类增强的背景下理解自己;侵入性NTS的作用是确定为半机械人的作用;如果他们的实践在治疗和增强之间表现出明显的区别;人类增强是否始终与性能,优化和功能有关;在多大程度上,Neurohackers有助于“主流” NT。
摘要 伦理学家、政策制定者和公众质疑机器人等人造实体是否值得享有权利或其他形式的道德考量。到目前为止,关于这个主题的研究很少。我们在对这个主题的文献综述中确定了 294 个相关研究或讨论项目。学者们普遍认为,一些人造实体在未来,甚至现在,也值得道德考量。理由各不相同,例如担心对人造实体的影响和担心对人类社会的影响。除了传统的结果主义、义务论和美德伦理主义伦理框架外,一些学者鼓励“信息伦理”和“社会关系”方法,尽管有机会对人造实体的道德考量的细微差别进行更深入的伦理研究。相关实证数据收集有限,主要是一些关于人类当前对机器人和其他人工实体的道德和社会态度的心理学研究。这表明,在心理学、社会学、经济学和组织学研究方面存在重大差距,这些研究涉及人工实体如何融入社会以及决定如何考虑人工实体利益的因素。
摘要:本文深入研究了人工智能 (AI) 和机器学习 (ML) 对法律诉讼和司法系统的深远影响。它评估了这些技术如何通过从根本上改变司法实践来重塑现有的法律结构和原则。展望未来,本文预测人工智能和机器学习在法律研究中将有光明的发展轨迹,阐明它们的发展路径并介绍新的研究领域。它强调了跨学科方法的必要性,提倡法律专业人士、数据科学家和伦理学家之间的合作,以有效应对人工智能与法律融合所固有的道德和实践挑战。这种协同作用对于应对人工智能与法律领域交叉产生的道德和实践复杂性至关重要。此外,该研究强调了人工智能、机器学习和相关技术所发挥的关键作用,并断言它们超越了单纯的工具功能,成为法律研究方法全面转变的催化剂。通过拥抱这些技术,法律领域正处于重大转型的边缘,预示着传统实践的终结和以数字时代法律研究范式为特征的新时代的到来。
在本文中,我们介绍了一种重工业中实用人工智能 (AI) 伦理的新方法,该方法是在欧盟 Horizons 2020 多合作伙伴项目的背景下开发的。我们首先回顾了工业 4.0 的概念,讨论了该概念的局限性,以及重工业的迭代分类的局限性,以形成一种实用的以人为本的伦理方法。然后,我们继续概述重工业的实际和潜在的人工智能伦理方法,表明当前强调广泛的高级原则的方法并不适合工业人工智能伦理。从那里,我们将自己的方法分为两部分。第一部分建议从头开始根据车间工人的时间和空间情况量身定制伦理,包括给出具体和不断发展的伦理建议。第二部分描述了伦理学家作为道德监督员的角色,他们沉浸在开发过程中,并在工业和技术 (tech) 开发伙伴之间进行解释。在介绍我们的方法时,我们大量借鉴了我们在项目用例中应用该方法的经验,作为可以做什么的例子。
摘要:对医疗实践中人工智能等技术表示担忧的医生和伦理学家通常似乎认为这些技术有可能侵占目前尚未技术化的医疗领域。然而,在本文中,我将论证,如果按照海德格尔等人对技术的批判来理解“技术”,现代医学已经将自身构成了本质上的技术。我将通过描述当代医学中已经广泛传播的几种做法来说明这一点。许多医生已经感觉自己就像机器中的齿轮,他们的临床判断受到经济和政策措施的限制,这些措施将他们的注意力从个体患者的利益上转移开。医疗保健系统还经常将患者视为原材料,将他们的身体置于各种形式的权力之下并从他们身上榨取资源,正如最近扩大常温区域灌注 (NRP) 以获取心脏死亡后移植的器官所证明的那样。有了这种范式,任何即将出现的技术都不是传统实践的革命性威胁,而是医学已经在很大程度上成为的逻辑延伸。因此,抵制医疗从业者所担心的这些技术带来的不良后果将会十分困难。