《艾滋病毒治愈研究重点:IAS 全球科学战略 2021》发表于《自然医学》,重点介绍了艾滋病毒治愈研究中的关键差距和有希望的进展,为研究人员、捐助者、倡导者和其他利益相关者提供了未来五年的战略建议。IAS(国际艾滋病学会)通过其“迈向艾滋病毒治愈”计划召集了一个由 68 名成员组成的国际科学工作组,该工作组由顶尖研究人员、伦理学家、行业代表和社区倡导者组成,旨在制定第三个全球科学战略。开创性的第一个 IAS 全球科学战略:迈向艾滋病毒治愈
但这三个条件本身必须可操作化,这是机构审查委员会、医院伦理委员会、专业组织和生物伦理学家的工作。他们制定最佳实践、标准和程序以满足知情同意条件——例如,需要向潜在研究对象提供哪些信息,患者理解到什么程度才算理解,以及医生如何在不过度影响决策的情况下提供专业意见。此外,标准和最佳实践可以而且必须具有情境敏感性。例如,它们在急诊医学中不能与在临床实践中相同。知情同意原则在医学和研究中采用已有数十年,但它仍在不断完善,以应对新问题、新担忧和新环境,以确保保护个人自主权。
摘要:自从德里克·帕菲特的《理由与人》出版以来,生物伦理学家倾向于区分生殖技术对未来人类福祉可能产生的两种不同影响。一些干预措施会伤害或使特定个体受益:它们是“影响人的”。其他干预措施决定了在众多可能的个体中哪一个个体会出现:它们是“影响身份的”,并引发了著名的“非身份问题”。在过去的几十年里,生物伦理学争论在很大程度上是基于这样的假设进行的:直接对人类胚胎进行基因改造会对人产生影响。在本文中,我认为基因组编辑在可预见的未来极不可能对人产生影响,因此,它既不会给被编辑的个体带来好处,也不会伤害它们。
摘要 干细胞研究的进步和前景引发了许多特定的伦理问题。虽然生物学研究人员和生物技术创新者往往很难驾驭干细胞研究的伦理环境,但公众和其他相关人士(从伦理学家到政策制定者)也很难掌握一个朝多个方向发展的新兴领域的技术性。类器官是这些新的生物技术结构之一,目前正在引起生物伦理学的激烈争论。在本指南中,我们认为不同类型的类器官具有不同的新兴特性,具有不同的伦理含义。从一般特性到特定特性,我们从哲学和伦理的角度提出了类器官技术和其他相关生物技术的类型学。我们指出了相关的伦理问题,并试图传达正在进行的研究和新兴技术对象所特有的不确定性。
Manjulika Vaz,社会科学家,与社会发展部门合作了二十年。她目前是印度肯塔基州班加罗尔市圣约翰国家健康科学院圣约翰研究所的健康与人文科研究所的研究员和教职员工。; Sunita Sheel,人类学家和培训的生物伦理学家;医学伦理学会论坛(FMES)秘书长;印度医学伦理学杂志(IJME)的工作编辑,印度浦那孟买,印度。Sayantan Datta,Krea University的写作和教学中心实践助理教授,屡获殊荣的科学记者。他们是培训的神经科学家。两者都与生物伦理学,正义,公平事务以及与健康研究,公共卫生,生物医学研究,政策和计划的法律,法规和人权承诺的交往都长期参与。1230 - 1245小时(15分钟)
摘要。科学时代宗教研究所 (IRAS) 邀请了著名神学家和生物伦理学家 Ted Peters(过去几十年来一直处于克隆和干细胞辩论的前沿)和我(分子生物学家)邀请各个领域的学者集思广益,探讨 CRISPR 革命的宗教和伦理影响。我们邀请了主题演讲者(本文将介绍他们的演讲),以及其他演讲者和海报展示。2019 年夏天,在美丽的星岛,会议还举办了问答会、牧师会议和为期一周的讨论。本文旨在重点介绍和抽样该会议的讨论和演讲。我将把它们分为三个广泛的主题:科学、伦理和宗教中的 CRISPR。对于不熟悉 CRISPR 技术的读者,本概述也可以作为该领域的介绍,以及未来 CRISPR 讨论想法的垫脚石。
摘要 由于其自我学习和进化特性,人工智能 (AI) 系统比传统的社会技术系统更容易出现意想不到的后果,也更难控制。为了解决这个问题,机器伦理学家提议通过设计人工道德代理来在人工智能系统中构建道德 (推理) 能力。我认为这很可能会导致更多而不是更少的意想不到的后果,并且可能会减少而不是增加人类对此类系统的控制。相反,我建议我们应该通过为人工智能系统的进化制定一系列元价值观,将人工智能系统置于人类有意义的控制之下。除此之外,这还需要对人工智能系统进行负责任的实验,这可能无法保证完全控制或防止所有不良后果,但仍然可以确保人工智能系统及其进化不会失控。
这项研究通过问责制,偏见和以人为中心的设计镜头探讨了人工智能(AI)的道德维度。随着AI技术日益影响各个部门的关键决策,了解谁承担AI驱动的结果的道德责任变得至关重要。本研究评估了现有的责任制框架,并提出了增强功能,以确保AI部署中的道德责任。此外,它解决了AI算法中普遍存在的偏见问题,研究了识别和减轻偏见以促进公平和公平性的方法论。最后,研究强调了以人为中心的设计的原则,主张开发优先人类价值和福利的AI系统。通过整合这些主题,本研究旨在为负责任的AI开发论述做出贡献,为政策制定者,技术人员和伦理学家提供可行的见解,以创建公平且可信赖的AI系统。
我们已经面临许多关于大型语言模型的紧迫道德挑战。3关于公平,安全,真实,正义和问责制的问题。如果有意识的AI到处都是,那么这将提出一系列新的困难伦理挑战,并在旧挑战上增加了新形式的不公正形式。一个问题是,有意识的AI很可能会对人类造成新的伤害。另一个可能导致对AI系统本身的新危害。我不是伦理学家,在这里我不会深入了解道德问题,但我不会轻易地接受它们。我不希望我在这里放置的有意识AI的路线图被视为我们必须走的道路。我在以下内容中提出的挑战可以同样被视为一组危险信号。我们克服的每个挑战都使我们更接近有意识的AI,无论好坏。我们需要意识到我们在做什么,并为是否应该这样做考虑。