因素的限制。对胚胎干细胞的研究主要是通过动物 实验进行的 , 而成体干细胞 (adult stem cells) 存在 于胎儿和成人各种组织及器官中 , 来源广泛 , 而且不 涉及伦理问题。虽然胚胎干细胞更具有全能性 , 理 论上可生成任何组织 , 容易分化为一些组织如心脏
摘要:随着人工智能 (AI) 在现代生活中蓬勃发展和传播,一个关键问题是,如何将人类纳入未来的人工智能?尽管人类参与了从构思、设计到实施的每个生产过程阶段,但现代人工智能仍因其“黑箱”特性而经常受到批评。有时,我们不知道内部到底发生了什么,也不知道某些结论是如何以及为什么得出的。未来的人工智能将面临许多其创造者无法预见的困境和道德问题,而不仅仅是那些常见的问题(例如,电车难题及其变体),而这些问题的解决方案无法硬编码,而且往往仍有待商榷。鉴于此类社会和道德困境的敏感性及其对整个人类社会的影响,当我们的人工智能做出“错误”选择时,我们需要了解它们是如何导致的,以便进行纠正并防止再次发生。在涉及人类生计(例如,健康、福祉、财务、法律)或做出重大个人或家庭决定的情况下尤其如此。要做到这一点,就需要打开人工智能的“黑匣子”;尤其是它们在人类世界中的行为、互动和适应,以及它们如何与这个世界上的其他人工智能互动。在本文中,我们主张将认知架构应用于道德人工智能。特别是,它们可能对人工智能的透明度、可解释性和可问责性做出贡献。我们需要了解我们的人工智能如何得到它们所做的解决方案,我们应该在更深层次上寻求这一点,从动机、态度、价值观等机器等价物的角度来理解。未来人工智能的道路漫长而曲折,但它可能比我们想象的更快到来。为了利用人工智能对人类和社会的积极潜在结果(并避免负面影响),我们首先需要更全面地了解人工智能,我们希望这同时也有助于更好地了解人类同行。
摘要 当前人工智能 (AI) 系统的研究、开发和应用进展引发了关于人工智能伦理的深远讨论。因此,近年来发布了许多道德准则。这些准则包括规范性原则和建议,旨在利用新人工智能技术的“颠覆性”潜力。作为一项半系统性的评估,本文分析和比较了 22 条准则,强调了重叠之处和遗漏之处。因此,我对人工智能伦理领域进行了详细的概述。最后,我还研究了各自的伦理原则和价值观在人工智能系统的研究、开发和应用实践中得到多大程度的实施,以及如何提高人工智能伦理要求的有效性。
目前,加拿大卫生部是使用人工智能的医疗设备和系统的监督机构。2022 年 6 月,加拿大政府提出《人工智能和数据法案》(AIDA),作为 C-27 法案《2022 年数字宪章实施法案》的一部分,作为首批人工智能国家监管框架之一。2023 年,加拿大卫生部发布了《指导草案:机器学习医疗设备上市前指导》,为根据法规提交新申请或修订 II、III 和 IV 类机器学习医疗设备 (MLMD) 申请的制造商提供指导。注册人只能使用加拿大卫生部批准的 MLMD,并且在这样做时,了解设备分类、支持在临床实践中使用该设备的证据级别以及设备的局限性。
图 1:该图 Rasch、Kott 和 Forbus 展示了如何创建“综合行动过程批判和阐述系统”(Rasch、Kott 和 Forbus,2003 年,第 21 页)如图 1 所示,通过使用 AI,可以创建基于草图的图表供领域使用
人工智能 (AI) 及其在临床路径中的引入提出了一系列伦理问题,这些问题正在 JME 中进行讨论。1–7 人工智能技术的发展可以生成能够通过剽窃检测器 8 并看起来像是由人类作者 9 撰写的文本,这给医学伦理学带来了新的问题。一组担忧涉及作者身份以及现在是否有可能知道作者或学生确实创作了提交的作品。这似乎是中等和高等教育以及所有学术期刊的普遍担忧。到目前为止,生成式人工智能聊天机器人似乎无法生成完全引用且论证充分的伦理文章,但它们可能可以生成博客或学生论文,这些论文在经过很小的编辑后很难被发现。许多学校和大学已经转向在线评估形式,生成式人工智能可能会对它们的完整性产生怀疑,我们可能会看到恢复手写考试作为一种解决方案。除了这些直接且显而易见的伦理问题之外,生成式人工智能还强调了概念挑战,这些挑战带来了更深层次的伦理问题。JME 致力于发表高质量的文章,进一步对医疗保健领域的问题进行伦理分析。该期刊发表的部分内容报告了实证研究结果。例如,一篇描述定性研究结果然后对一些规范性问题进行分析的文章不能完全由生成式人工智能撰写:它不能进行定性研究。然而,生成式人工智能可以找到公开的资源并产生伦理论证和三段论。这对伦理分析的本质意味着什么?如果伦理分析从根本上来说涉及组装、组织和评估词语,那么也许生成式人工智能可以取代伦理学家。目前,生成式人工智能无法产生细微差别、深度
乌克兰和加沙冲突中军事人工智能引发伦理问题的直接相关例子。以色列正在使用人工智能生成间接火力的目标报告,乌克兰冲突双方都在使用自主巡飞弹药。2 在实施这些技术时确实存在一些复杂因素,例如反无人机系统电子战的广泛使用,但这些不在本文的讨论范围内。3 重点是这些人工智能系统与经过训练的使用相比如何运作。美国犹太国家安全研究所 2021 年关于 2021 年加沙冲突的一份报告讨论了以色列目标定位人工智能的优势,英文称为“Gospel”。这种人工智能与 2023 年 10 月开始的持续加沙冲突中使用的人工智能相同。最显着的优势是无与伦比的数据处理和推荐目标的能力。事实证明,Gospel 比传统的人类分析师目标定位系统快 50 倍。然而,由于缺乏公平的数据集工程,出现了严重的伦理问题。4 美国犹太国家安全研究所报告
人工智能 (AI) 与医疗保健的融合带来了重大机遇和挑战,尤其是在道德考量方面。本研究采用叙述性综述方法,综合了有关管理医疗保健领域 AI 技术的道德准则的现有文献,重点关注公平性和可及性、透明度和问责制、数据隐私和安全、协作、可持续性、以患者为中心以及促进健康和福祉等原则。通过研究不同的研究,本综述确定了新兴趋势,强调了当前研究中的差距,并将研究结果置于更广泛的医疗保健领域中。叙述性综述的灵活性使我们能够全面探索医疗保健领域 AI 的复杂性,揭示了多学科协作和强有力的监管框架的必要性,以确保负责任的实施。此外,该研究强调了让服务不足的社区参与进来并优先考虑可持续性以改善健康结果和促进公平的重要性。最终,本研究有助于更深入地了解道德原则如何指导 AI 技术在医疗保健系统中的有效整合,为改善患者护理和与可持续发展目标保持一致铺平道路。总之,虽然这些道德准则为人工智能在医疗保健领域的整合提供了强有力的框架,但成功实施需要不断评估和调整。利益相关者必须保持警惕,确保人工智能技术不仅有效,而且公平、透明,并与改善不同人群的患者护理和健康结果的最终目标保持一致。
在国际上,人们越来越关注让儿童接触人工智能 (AI) 和数据科学。在本文中,我们认为,我们不应只关注让儿童掌握成为未来 AI 劳动力的技能,还必须让儿童掌握成为未来(和现在)批判性公众的技能,这是让 AI 系统及其开发者承担责任所必需的。随着 AI 以越来越多的方式影响儿童的生活,并日益塑造儿童生活和工作的未来社会,让儿童和年轻人具备探究和理解 AI 系统作用的能力至关重要。本文提出,与 AI 相关的教育必须超越传统的 STEM 方法,涵盖与 AI 相关的道德和社会考虑。这对于确保儿童了解 AI 在他们生活中(现在和未来)的作用,并能够批判性地参与 AI,从而就他们与 AI 互动的方式做出明智的选择非常重要。AI 的开发和部署也有很大的好处,因为需要纳入儿童的观点和价值观,以指导道德实践。