目前,加拿大卫生部是使用人工智能的医疗设备和系统的监督机构。2022 年 6 月,加拿大政府提出《人工智能和数据法案》(AIDA),作为 C-27 法案《2022 年数字宪章实施法案》的一部分,作为首批人工智能国家监管框架之一。2023 年,加拿大卫生部发布了《指导草案:机器学习医疗设备上市前指导》,为根据法规提交新申请或修订 II、III 和 IV 类机器学习医疗设备 (MLMD) 申请的制造商提供指导。注册人只能使用加拿大卫生部批准的 MLMD,并且在这样做时,了解设备分类、支持在临床实践中使用该设备的证据级别以及设备的局限性。
图 1:该图 Rasch、Kott 和 Forbus 展示了如何创建“综合行动过程批判和阐述系统”(Rasch、Kott 和 Forbus,2003 年,第 21 页)如图 1 所示,通过使用 AI,可以创建基于草图的图表供领域使用
人工智能 (AI) 及其在临床路径中的引入提出了一系列伦理问题,这些问题正在 JME 中进行讨论。1–7 人工智能技术的发展可以生成能够通过剽窃检测器 8 并看起来像是由人类作者 9 撰写的文本,这给医学伦理学带来了新的问题。一组担忧涉及作者身份以及现在是否有可能知道作者或学生确实创作了提交的作品。这似乎是中等和高等教育以及所有学术期刊的普遍担忧。到目前为止,生成式人工智能聊天机器人似乎无法生成完全引用且论证充分的伦理文章,但它们可能可以生成博客或学生论文,这些论文在经过很小的编辑后很难被发现。许多学校和大学已经转向在线评估形式,生成式人工智能可能会对它们的完整性产生怀疑,我们可能会看到恢复手写考试作为一种解决方案。除了这些直接且显而易见的伦理问题之外,生成式人工智能还强调了概念挑战,这些挑战带来了更深层次的伦理问题。JME 致力于发表高质量的文章,进一步对医疗保健领域的问题进行伦理分析。该期刊发表的部分内容报告了实证研究结果。例如,一篇描述定性研究结果然后对一些规范性问题进行分析的文章不能完全由生成式人工智能撰写:它不能进行定性研究。然而,生成式人工智能可以找到公开的资源并产生伦理论证和三段论。这对伦理分析的本质意味着什么?如果伦理分析从根本上来说涉及组装、组织和评估词语,那么也许生成式人工智能可以取代伦理学家。目前,生成式人工智能无法产生细微差别、深度
乌克兰和加沙冲突中军事人工智能引发伦理问题的直接相关例子。以色列正在使用人工智能生成间接火力的目标报告,乌克兰冲突双方都在使用自主巡飞弹药。2 在实施这些技术时确实存在一些复杂因素,例如反无人机系统电子战的广泛使用,但这些不在本文的讨论范围内。3 重点是这些人工智能系统与经过训练的使用相比如何运作。美国犹太国家安全研究所 2021 年关于 2021 年加沙冲突的一份报告讨论了以色列目标定位人工智能的优势,英文称为“Gospel”。这种人工智能与 2023 年 10 月开始的持续加沙冲突中使用的人工智能相同。最显着的优势是无与伦比的数据处理和推荐目标的能力。事实证明,Gospel 比传统的人类分析师目标定位系统快 50 倍。然而,由于缺乏公平的数据集工程,出现了严重的伦理问题。4 美国犹太国家安全研究所报告
人工智能 (AI) 与医疗保健的融合带来了重大机遇和挑战,尤其是在道德考量方面。本研究采用叙述性综述方法,综合了有关管理医疗保健领域 AI 技术的道德准则的现有文献,重点关注公平性和可及性、透明度和问责制、数据隐私和安全、协作、可持续性、以患者为中心以及促进健康和福祉等原则。通过研究不同的研究,本综述确定了新兴趋势,强调了当前研究中的差距,并将研究结果置于更广泛的医疗保健领域中。叙述性综述的灵活性使我们能够全面探索医疗保健领域 AI 的复杂性,揭示了多学科协作和强有力的监管框架的必要性,以确保负责任的实施。此外,该研究强调了让服务不足的社区参与进来并优先考虑可持续性以改善健康结果和促进公平的重要性。最终,本研究有助于更深入地了解道德原则如何指导 AI 技术在医疗保健系统中的有效整合,为改善患者护理和与可持续发展目标保持一致铺平道路。总之,虽然这些道德准则为人工智能在医疗保健领域的整合提供了强有力的框架,但成功实施需要不断评估和调整。利益相关者必须保持警惕,确保人工智能技术不仅有效,而且公平、透明,并与改善不同人群的患者护理和健康结果的最终目标保持一致。
在国际上,人们越来越关注让儿童接触人工智能 (AI) 和数据科学。在本文中,我们认为,我们不应只关注让儿童掌握成为未来 AI 劳动力的技能,还必须让儿童掌握成为未来(和现在)批判性公众的技能,这是让 AI 系统及其开发者承担责任所必需的。随着 AI 以越来越多的方式影响儿童的生活,并日益塑造儿童生活和工作的未来社会,让儿童和年轻人具备探究和理解 AI 系统作用的能力至关重要。本文提出,与 AI 相关的教育必须超越传统的 STEM 方法,涵盖与 AI 相关的道德和社会考虑。这对于确保儿童了解 AI 在他们生活中(现在和未来)的作用,并能够批判性地参与 AI,从而就他们与 AI 互动的方式做出明智的选择非常重要。AI 的开发和部署也有很大的好处,因为需要纳入儿童的观点和价值观,以指导道德实践。
背景:人工智能 (AI) 的进步为各个领域带来了众多好处。然而,它也带来了必须解决的道德挑战。其中之一是人工智能系统缺乏可解释性,即无法理解人工智能如何做出决策或产生结果。这引发了人们对这些技术的透明度和可问责性的质疑。这种可解释性的缺乏阻碍了人们对人工智能系统如何得出结论的理解,这可能导致用户不信任并影响此类技术在关键领域(例如医学或司法)的采用。此外,人工智能算法中还存在有关责任和偏见的道德困境。方法:考虑到上述情况,从伦理角度研究可解释人工智能的重要性存在研究空白。研究问题是人工智能系统缺乏可解释性的伦理影响是什么,以及如何解决这个问题?这项工作的目的是了解这个问题的伦理影响并提出解决它的方法。结果:我们的研究结果表明,人工智能系统缺乏可解释性会对信任和问责产生负面影响。用户可能会因为不理解某个决定是如何做出的而感到沮丧,这可能会导致对技术的不信任。此外,缺乏可解释性使得很难识别和纠正人工智能算法中的偏见,而偏见可能会导致不公正和歧视。结论:这项研究的主要结论是,人工智能必须在伦理上可解释,以确保透明度和问责制。有必要开发工具和方法,以便了解人工智能系统如何工作以及如何做出决策。促进人工智能、伦理和人权专家之间的多学科合作也很重要,以全面应对这一挑战。
尽管困难重重,但 2020 年还是收获颇丰。2021 年将为我们带来新的挑战。然而,这也将为我们带来新的机遇。我们将看到研究项目的首批成果,启动“人工智能伦理 - 全球视角”开放式在线课程,并有机会在我们的演讲者系列、IEAI 研讨会以及慕尼黑负责任的人工智能论坛 (TRAIF) 上与杰出的国际客座演讲者讨论人工智能的伦理和治理。我们的主要国际会议将通过分享故事、前沿研究和实际应用来解决与负责任地使用人工智能有关的最相关和最紧迫的问题。