基因编辑等新生物技术开辟了新的途径,不仅可以“增强”人类,还可以增强非人类动物。首先,可以称为“以人类为中心”的动物增强技术,涉及通过生物技术改造动物以满足人类的目的或挑战(参见 Hauskeller,2016 年)。例如,基因编辑可用于增加养殖动物的产量或减少其对环境的影响,从而解决人口增长和气候变化给人类带来的一些挑战。其次,超人类主义者认为,一旦我们开发出适当的手段,我们人类就有义务从生物学上“提升”动物的认知能力,以便动物能够更有意义地参与人类社会并过上更好的生活(Dvorsky,2008 年)。第三,伦理学家一直在讨论通过降低动物承受痛苦的能力来“降低”注定要在非常不利的条件下生活的动物的智力是否可取(例如 Thompson,2008 年)。尽管后一种干预通常被称为缺陷增强,因为它涉及限制而不是改善或增加能力,但 Shriver (2021) 建议将其称为增强,因为其目的是改善动物的福利。
目前,CRISPR 被视为未来基因治疗的核心工具。然而,许多杰出的科学家和生物伦理学家对 CRISPR 基因治疗表达了伦理方面的担忧。本文对主流学术文献中表达的有关 CRISPR 基因治疗的担忧进行了批判性回顾,并附上了该文献中常见的回复。所表达的担忧可分为三类,具体取决于它们是强调风险/收益比、自主权和知情同意,还是与正义的各个方面相关的担忧。在所审查的文献中,我们发现对 CRISPR 基因治疗没有内在的反对意见,尽管在 20 世纪 90 年代的基因编辑讨论中存在许多此类反对意见。然后,本文提出了一个关于 CRISPR 基因治疗的公共决策的实用道德框架的简要概述,并提出了如何支持这种框架。我们还建议,该框架应管理公众对 CRISPR 基因治疗的参与,以降低我们基于误解、夸大的风险观点或不合理的道德或宗教观点做出有关 CRISPR 基因治疗的决定的风险。
人们认为AI在各个领域都具有专业知识,但是AI生成的道德专业知识的质量仍然不确定。最近的工作表明,大型语言模型(LLMS)在旨在评估道德一致性的任务上表现良好,以相对较高的精度反映了道德判断。由于LLM越来越多地在决策角色中使用,因此他们越来越期望他们不仅提供一致的判断,而且表现出合理的道德推理。在这里,我们推进了道德图灵测试的工作,发现美国人的道德建议比《纽约时报》受欢迎的咨询专栏《道德》(The Pollecicist)更具道德,值得信赖,周到和正确。参与者认为GPT模型既超过了美国人的代表性样本,又超过了著名的伦理学家提供道德理由和建议,这表明人们可能越来越多地将LLM的产出视为可行的道德专业知识来源。这项工作表明,人们可能会将LLMS视为对道德指导和决策中人类专业知识的有价值的补充。也强调了在LLMS中精心编程的道德准则的重要性,考虑到它们影响用户道德推理的潜力。
Jennifer Mansfield 博士是澳大利亚莫纳什大学教育学院的科学教师教育者。她对科学和科学教育的热爱使她从事科学家和中学科学教师的工作,之后转入职前教师教育。她的研究兴趣包括教师专业实践知识的发展以及教师对科学教育的理解和态度的发展,特别是科学作为人类事业和科学的本质。致谢:作者要感谢墨尔本大学和默多克儿童研究所的生物伦理学家 CHRIS GYNGELL 博士提供的宝贵审阅和反馈,以及 GEORGIA CARNEY BBiomed(荣誉)女士在准备资源方面的帮助。资金:该项目由莫纳什大学向当时的澳大利亚干细胞教育、伦理、法律和社区意识部门(澳大利亚研究委员会的干细胞科学特别计划)提供的资金支持。墨尔本大学也提供了额外支持。引用方式:Munsie M、Mitsinikos K、Mansfield J. 伦理与干细胞模块 1。澳大利亚墨尔本:澳大利亚干细胞;2021 年。
James Giordano博士是统一服务大学卫生科学大学国防医学伦理中心的咨询生物伦理学家。他是佩莱格里诺(Pellegrino)神经病学,生物化学和伦理学的中心教授;并在乔治敦大学医学中心担任军事医学伦理的子计划主席。是350多名同行评审出版物,9本书和52份政府报告的作者,他是电气和电子工程师研究所(IEEE)脑主席的名誉主席;是国防高级研究项目局(DARPA)神经,法律和社会问题顾问委员会的任命成员;以及美国卫生与公共服务部(DHHS)秘书人类研究保护咨询委员会任命的成员。欧洲科学与艺术学院的当选成员,以及皇家医学学会(英国)的海外院士,乔丹诺博士以前曾是一名指定的航空生理学家,曾在美国海军和海军陆战队任职。欧洲科学与艺术学院的当选成员,以及皇家医学学会(英国)的海外院士,乔丹诺博士以前曾是一名指定的航空生理学家,曾在美国海军和海军陆战队任职。
任何与人类受试者相关的临床活动的伦理和监管通常基于其临床实践或研究的分类。著名的生物伦理学家批评了用于划分这些类别的传统区分,称其适得其反且过时,并主张应谨慎且适当地将学习与临床实践相结合。个性化试验代表了一种兼具两种类别特征的临床活动,这使得伦理和监管要求变得不那么明确。当个性化试验的主要目的是协助开展个性化患者护理,并强调保护临床决策免受常规临床实践中固有偏见的影响时,应该如何监管此类活动?在本文中,我们将探讨个性化试验的伦理基础,并提出满足监管要求的各种方法。我们建议,个性化试验参与者和机构审查委员会 (IRB) 小组不应对所有个性化试验的实施施加标准研究法规,而应考虑参与个性化试验是否会导致与常规治疗相比,参与者的风险有任何可预见的增量增加。这种方法可以减少监管障碍,从而促进个性化试验的更广泛应用。
摘要 尽管现有研究引起了人们对实现公平人工智能的一系列障碍的关注,但该领域缺乏一个系统地强调这些担忧如何结合在一起的解释。此外,对公平人工智能和哲学文献的回顾表明,“一视同仁”和其他直观观念不适合作为公平概念。该回顾随后提出了对人工智能研究有价值的替代公平概念的三个要求:(1)它必须提供一个理解权衡的元理论,这意味着它必须足够灵活以捕捉对决策的各种反对意见。(2)它不能诉诸公正的观点(中立数据、客观数据或最终仲裁者)。(3)它必须突出公平判断对背景的敏感性,即对历史和制度状况的敏感性。我们认为,公平的概念是制度决策历史迭代中适当的让步,符合这三个要求。基于这一定义,我们将评论者的见解组织成道德领域的流程结构图,我们希望这能为分析公平人工智能的计算机科学家和伦理学家带来清晰的认识,同时为进一步的技术和哲学工作扫清障碍。
人类大脑类器官,又称大脑类器官或早期的“迷你大脑”,是重现人类大脑发育各个方面的 3D 细胞模型。它们在促进我们对神经发育和神经系统疾病的理解方面显示出巨大的希望。然而,前所未有的体外模拟人类大脑发育和功能的能力也带来了复杂的伦理、法律和社会挑战。类器官智能 (OI) 描述了将此类类器官与人工智能相结合以建立基本记忆和学习形式的持续运动。本文讨论了有关大脑类器官和 OI 的科学地位和前景、意识的概念化和心脑关系、伦理和法律层面的关键问题,包括道德地位、人与动物嵌合体、知情同意和治理问题,例如监督和监管。需要一个平衡的框架来允许重要的研究,同时解决公众的看法和道德问题。科学家、伦理学家、政策制定者和公众之间的跨学科视角和积极参与可以为类器官技术提供负责任的转化途径。可能需要一个深思熟虑、积极主动的治理框架来确保这一有前途的领域在道德上负责任的进展。
2021 年 3 月初,埃里克·施密特 (Eric Schmidt) 担任联合主席的国家人工智能安全委员会发布了一份报告,称美国在人工智能方面的立场落后于中国和俄罗斯。提出了多项举措来纠正这种情况。这一发展是在谷歌解雇两位著名且受人尊敬的伦理学家引发争议之后发生的。与此同时,机器人警犬在纽约市布朗克斯区进行了试验,全球疫情迫使高等教育在本已严峻的学生贷款危机中考虑自己的未来。在这种环境下,弗兰克·帕斯夸莱 (Frank Pasquale) 在其重要著作《黑箱社会》之后提出了《机器人新定律》。在早期的作品中,帕斯夸莱对侵犯社会生活的不透明数据收集和解释判断过程发出了令人信服和令人不寒而栗的号召。本书建立在之前努力的基础上,旨在推进一个有凝聚力的乐观计划,尽管它需要对所要解决的对象进行更深入的理论化。
人类大脑类器官,又称大脑类器官或早期的“微型大脑”,是重现人类大脑发育各个方面的 3D 细胞模型。它们在促进我们对神经发育和神经系统疾病的理解方面显示出巨大的潜力。然而,前所未有的体外模拟人类大脑发育和功能的能力也带来了复杂的伦理、法律和社会挑战。类器官智能 (OI) 描述了将此类类器官与人工智能相结合以建立基本记忆和学习形式的持续运动。本文讨论了有关大脑类器官和 OI 的科学地位和前景、意识的概念化和心脑关系、伦理和法律层面的关键问题,包括道德地位、人与动物嵌合体、知情同意以及监管等治理问题。需要一个平衡的框架来允许重要的研究,同时解决公众的看法和道德问题。科学家、伦理学家、政策制定者和公众之间的跨学科观点和积极参与可以为类器官技术提供负责任的转化途径。可能需要一个深思熟虑、积极主动的治理框架来确保这一有前景的领域取得合乎道德的负责任的进展。