直接对人类胚胎进行基因改造是否会影响未来人的福祉?斯帕罗回答这个问题的方法违背了生物伦理学的一个核心目标:产生能够在研究、临床环境或公共政策中产生实际影响的观点。斯帕罗没有参与提供以经验为基础的人类身份描述的研究,而是不加批判地采用了帕菲特众所周知的两种基因干预类型的区分:“影响个人”和“影响身份”。这种区别对斯帕罗 (2022) 来说至关重要。鉴于对未来人的预期福利的合理关注,它允许他决定干预者是否对结果负有道德责任。影响个人的干预就是这种情况,因为只有在这种情况下,未来的人才会从干预中受益或遭受伤害。相比之下,目前通过 CRISPR 实现的体细胞或生殖细胞编辑通常涉及某种形式的选择——通过体外受精、体外胚胎核移植或植入前遗传学诊断——在植入妊娠母亲子宫之前选择“最佳孩子”。选择会影响身份,因为它会改变受孕时间,从而
● 自主性:万一您正在研究的病毒发生变异并逃出实验室,造成新的流行病,这可能会剥夺他人的生命和健康权利。 ● 后果:这可能会带来好或坏的后果。从好的方面来说,功能获得性研究通常是安全的,可以帮助预防未来的流行病并挽救生命。从坏的方面来说,逃逸的病毒可能会非常致命和灾难性的。 ● 公正性:这一决定可能为所有人带来同等的利益和风险。 ● 性格:假设您的主要价值观之一是诚实。您很可能必须对自己在实验室所做的事情保密,以免引起社会恐慌。这意味着这个决定会导致您损害您的一个关键价值观。 ● 普遍性:如果实验室里还有其他人从事功能获得性病毒学研究,您可能会感到安全,因为您知道世界将更好地应对未来的疾病爆发,尤其是因为逃逸病毒的可能性非常小。
● 创建工具来指导出版决策:使用基准或第三方专家小组等外部测量可能是公平指导出版决策的关键一步。此类方法可以设定与出版相关的可接受风险水平的一定标准。根据此建议,记录由于其固有风险而被拒绝的论文以及一些相关指标也是恰当的。● 提供页码扩展: 延长已发表论文的页数限制可能会有所帮助,以便研究人员能够包括传统上不会打印的负面结果(无关紧要或反驳研究人员假设的结果)。 除了增加页数外,还应该显著改变围绕负面结果发表的文化。● 建立同行网络:建立同行网络以评估研究人员的人工智能模型的潜在风险和收益,可能是制定更好、更安全的出版规范的重要工具。如果建立这样的机制,评估可以完全或部分基于哲学家约翰·罗尔斯的“无知之幕”。 如果将这个想法应用于审查人工智能研究,可以要求同行评审员从不同的社会角度考虑新人工智能研究的潜在优势和风险。● 要求提供广泛的影响声明: NeurIPS 会议要求提交的论文包括与所提出研究有关的更广泛影响的声明。通过将反思作为在 NeurIPS 上考虑其工作的必要条件,这激励研究人员思考潜在的风险和收益。所有会议和出版物上的类似措施将鼓励研究人员批判性地评估他们的研究对世界产生的积极和消极影响 ● 要求公布预期结果:要求研究人员撰写和公布其研究项目的预期结果(包括但不限于其更广泛的社会和道德影响)有助于在研究人员开展项目之前就潜在的利益和危害进行反思。● 改革同行评审流程:同行评审的完善做法为每位评审员就他们正在修改的论文中看到的风险和利益进行交流提供了绝佳的机会。如果在评审论文时添加了一个问题或要求,可能会迅速产生广泛的影响,促使研究人员考虑他们的研究可能产生的结果。有效的审查流程应在明确、公平和高效的同时,促进风险限制。实现此目的的一种方法是根据同行评审论文所认为的研究风险程度,按比例加强出版要求。
1 普适数据这一术语旨在指通过在线服务收集的有关人员的数据(用户贡献、观察、获取或推断),无论这些数据在多大程度上是公开的、汇总的或可能导致识别个人。普适数据可能包括文本、图像、视频、生物特征信息、有关数据主体行为的信息(购买、财务状况、媒体消费、搜索历史、医疗状况、位置等)以及构成个人数字足迹的其他信息。在线服务可能包括整个技术堆栈/技术基础设施中的各种信息技术,包括但不限于基于 Web 的监控工具、内容交付网络、区块链技术、数字劳动力平台、教育技术、物联网设备、联网汽车、可穿戴设备、移动传感器、数据代理、流媒体服务、搜索引擎、在线市场、社交媒体平台和人工智能系统。 “普适数据”这一术语源自美国国家科学基金会资助奖编号 1144934 下开展的研究(https://www.nsf.gov/awardsearch/showAward?AWD_ID=1144934)。2 例如,请参阅 Michael Zimmer 的《解决大数据研究伦理中的概念差距:情境完整性的应用》,《社交媒体+社会》4,第 2 期(2018 年),https://doi.org/10.1177/2056305118768300;aline shakti franzke 等人的《互联网研究:道德准则 3.0》,互联网研究人员协会(2020 年),https://aoir.org/reports/ethics3.pdf。3 本征求意见稿中所述的道德和隐私准则侧重于数据从在线服务提供商流向在线服务提供商之外的独立研究人员,这些研究人员通常隶属于学术或非营利机构。 4 数据中介机构旨在描述一个独立的实体,其专门为促进研究人员和在线服务提供商之间根据商业或非商业协议进行数据访问和共享而运营,或评估
摘要 人工智能 (AI) 技术在教育中的应用带来了许多可能性和好处。然而,它也引发了需要仔细考虑的道德问题。这项研究探讨了人工智能在教育中的应用所带来的伦理影响。这项研究考察了关键的伦理层面,包括隐私和数据保护、公平和偏见以及对师生关系的影响。研究结果强调了透明度、问责制和公平性在人工智能设计和部署中的重要性。这项研究提出了一个全面的框架来指导人工智能在教育中的伦理应用,强调需要强有力的政策、算法透明度和解决偏见问题。通过积极解决这些道德问题,教育利益相关者可以确保一个负责任和包容的教育环境,在坚持道德原则的同时充分利用人工智能的潜力。人工智能 (AI) 彻底改变了包括教育在内的各个领域。它与教育系统的整合引发了有关隐私、自主权、偏见和问责制的道德问题。本文从哲学角度探讨人工智能在教育中的伦理影响。本文借鉴著名哲学家的著作,探讨在教育环境中使用人工智能技术所固有的道德考量。
鉴于人工智能开发人员在确保人工智能系统、其成果和此类系统用户的责任方面发挥着重要作用,我们需要他们采取负责任、合乎道德和负责任的方法。因此,我们建议这些参与者参与旨在产生负责任的人工智能设计和使用的政策制定过程。根据我们的实证研究结果,我们提出了几项建议,以弥补当前在追求负责任的人工智能时将道德原则、认证标准和解释方法作为问责机制所发现的缺陷。我们希望这些建议能够有助于讨论如何在实践中确保问责制,同时兼顾开发人员、研究人员和公众的观点。
3月18日至19日,一群专家在Eelisa AI伦理和法律讲习班举行的布达佩斯。在四个小组讨论中,他们将研究该主题中可能的研究方向,以及监管的含义,尤其是对版权事项和欧盟AI法案的含义。该事件还将采用未来的预测方法和纪录片筛选。
● 考虑到引入的透明度框架,您对 FB 透明度报告的实施有什么疑问?是否还有需要透明化的事情?● 您认为透明度报告有效吗?为什么有效或无效?● 您可以对实施提出哪些批评?● 您认为有哪些设计机会可以改进报告?● 您还想分享哪些其他观察结果?
人工智能已经在增强或取代人类应对复杂挑战的努力。它发出了 COVID-19 疫情的一些早期警报,帮助加速了疫苗的开发,并在恢复过程中发挥着越来越重要的作用。然而,进步也给个人和社会带来了风险。在某些情况下,人工智能的开发和使用会产生意想不到的后果,例如操纵行为、加剧不平等和偏见、极端主义和激进主义,或歧视性就业市场。在其他情况下,人工智能的部署带有先验恶意,例如传播虚假信息或劫持核心流程。
自 2019 年冠状病毒病 (COVID-19) 出现以来,全球公共卫生基础设施和系统以及社区范围内的合作和服务都面临着前所未有的挑战。疫苗开发立即成为我们所有科学、公共卫生和社区工作的中心。尽管 SARS-CoV-2 疫苗的开发可以说是过去 12 个月中最伟大、最明显的成就,但它们也是疫情期间最具争议和争论的问题之一。然而,疫苗开发的独特之处在于它与其试图服务的社区有着密切的关系;无论是作为一种有效和安全的预防措施进行的临床试验测试,还是作为一种有效的公共卫生工具在开发后“推广”的成功。这些关系产生了无数的复杂性,从基于社区的不信任到学术上争论的道德困境。事实上,COVID-19 疫苗竞赛的加速发展进一步加剧了这一现象,带来了新的伦理困境,需要对其进行研究以确保这些疗法在临床上继续取得成功,并恢复社会对临床医学的信任。在本文中,我们讨论了两个主要的伦理困境:(1) 在成功候选疫苗出现时继续进行新疫苗试验的平衡和 (2) 盲法安慰剂组的弊端。因此,我们讨论了解决这些伦理困境的六种不同方法:(1) 继续进行安慰剂对照试验,(2) 从安慰剂对照过渡到开放标签,(3) 仅对高风险优先组进行揭盲,(4) 过渡到盲法阶梯楔形交叉设计,(5) 进展到盲法活性对照阶梯楔形交叉试验,以及 (6) 进行随机阶梯楔形社区试验。我们还为疫苗试验后期的相关利益相关者提出了一种决策算法。重要的是要记住,COVID-19 疫情的突发性并不意味着可以对核心道德价值观做出妥协。事实上,围绕这一主题的讨论和所做出的决定将仍然是一个有力的案例研究,并将成为未来所有此类情景的一个不断参考的例子。
