抽象人工智能(AI)和深度学习(DL)在增强各种专业的医学诊断方面具有巨大的潜力。然而,这些模型的固有复杂性和不透明性在临床采用方面构成了重大挑战,特别是由于医疗保健决策的批判性质。本研究论文探讨了可解释的深度学习模型用于医学诊断的发展,重点是将可解释的AI(XAI)技术整合起来,以提高透明度,问责制和对AI辅助医疗决策的信任。我们研究了各种XAI方法,它们在不同的医疗领域的应用以及它们对诊断准确性和临床解释性的影响。通过对案例研究的全面分析,我们证明了可解释的模型如何不仅可以保持较高的诊断性能,还可以为其决策过程提供宝贵的见解,从而有可能彻底改变了AI和人类医疗保健专业知识之间的协同作用。关键字:可解释的AI;深度学习;医学诊断;解释性;卫生保健;人工智能1。简介医疗保健中人工智能(AI)和深度学习(DL)的整合在增强医学诊断,治疗计划和患者护理方面表现出了巨大的希望。这些高级计算模型已经证明了在图像识别,自然语言处理和复杂模式识别等任务中通常匹配或超过人类表现的功能[1]。在医学诊断领域中,AI系统在检测医学成像,预测患者预后以及识别可能会忽略甚至可能经历过医疗保健专业人员的临床数据中的细微模式方面取得了显着的准确性[2]。但是,在临床环境中广泛采用AI是一个重大障碍:许多深度学习模型的“黑匣子”性质。这些模型的复杂性和不透明度使医疗保健提供者了解和信任AI生成的诊断和建议背后的推理[3]。缺乏解释性引起了人们对责任制,患者安全以及依靠AI进行关键医疗决策的道德意义的担忧。可解释的AI(XAI)已成为一个关键领域,旨在通过开发方法和技术来使AI系统更透明和可解释[4]来应对这些挑战。在医学诊断的背景下,XAI试图解开深度学习模型的决策过程,提供有关这些系统如何得出结论并实现医疗保健
委员会对人工智能的监管工作始于 2018 年 3 月,当时成立了人工智能高级专家组 (HLEG) 和欧洲人工智能联盟。这些努力首先在 2018 年底以《人工智能协调计划》的形式实现。随后,HLEG 制定了《可信人工智能伦理指南》,其中概述了四项道德原则(严格基于基本权利)和人工智能系统应满足的七个关键要求,以被视为值得信赖。《人工智能白皮书》于 2020 年 2 月发布,旨在概述人工智能的共同定义,并分析欧洲在全球人工智能市场中的优势、劣势和机遇。在这些举措的基础上,委员会于 2021 年 4 月发布了 2021 年《人工智能协调计划》的修订版,为委员会和成员国提出了一套具体的合作举措。数字创新中心 (DIH) 的参与也有望加强欧洲在人工智能领域的领导地位,因为它们有潜力加强合作并降低中小企业采用人工智能的成本。除了最新计划外,委员会还发布了“欧洲议会和理事会关于制定人工智能协调规则的条例”(以下简称“人工智能法案提案”),这是有史以来第一个关于人工智能的法律框架。其主要目的不仅是促进人工智能的发展,而且还要打造一个独特的欧洲人工智能市场,使其在可信度方面有别于其他全球参与者——以所谓的“欧洲方式”打造值得信赖的人工智能。法律确定性促进了投资和创新,同时解决了和减轻了人工智能技术对安全和基本权利构成的风险。委员会坚信,将这些技术的负面影响降至最低的唯一方法是通过监管,人工智能法案提案还包含禁令和改编自欧盟产品安全法规的合格评定体系。为了补充《人工智能法案》提案,委员会于 2022 年 9 月底通过了两项提案,以使责任规则适应数字时代:《人工智能责任指令》和修订后的产品责任指令。该指令侧重于前者,旨在解决人工智能软件在现行责任规则下被视为具有挑战性的特征,特别是“不透明性、自主行为和复杂性”。责任法将成为实施人工智能监管的一个重要方面,因为它提供了一种机制来确定当人工智能发生故障或造成伤害时谁应该承担责任。
人工智能 (AI) 系统设计中的道德责任 David K. McGraw 1 摘要 本文旨在概述人工智能 (AI) 系统设计者的责任所涉及的道德问题。首先,作者深入探讨了这一责任的哲学基础,研究了各种伦理理论,以了解个人对他人和社会的道德义务。作者认为,技术设计者有责任考虑其创作的更广泛社会影响。随后,作者仔细研究了人工智能系统与传统技术相比是否具有独特的道德问题这一基本问题,指出了复杂性、不透明性、自主性、不可预测性、不确定性以及重大社会影响的可能性等因素,并认为人工智能算法的独特特征可能会产生新的道德责任类别。最后,本文提出了一个框架和策略,用于对人工智能设计师的责任进行伦理考虑。关键词:人工智能(AI)伦理、负责任的人工智能设计、人工智能伦理框架、技术哲学 简介 近年来,人工智能(AI)引起了公众的关注,人们对这项快速发展的技术的变革潜力既感到兴奋又感到担忧。随着人工智能系统变得越来越复杂并融入我们的日常生活,人们越来越认识到,这些技术的开发和部署引发了深刻的伦理问题。突然之间,“人工智能伦理”话题成为一个热门话题,引起了政策制定者、行业领袖、学术研究人员和普通公众的关注。这种广泛关注的背后是人们对人工智能变得越来越普及可能产生的社会影响和意想不到的后果的共同担忧。那些创造、实施和使用这些强大且具有潜在破坏性的技术工具的人的道德义务是什么?这是围绕人工智能的人类伦理的新兴讨论的核心问题。在《国际责任期刊》(IJR)的创刊号上,创始主编 Terry Beitzel 解释说,“责任”一词可以涵盖从道德到法律概念的一系列含义。这次讨论的核心是道德的基本问题。然而,Beitzel 总结说,IJR 的重点大致是“由‘谁或什么负责为谁做什么以及为什么?’ (2017, p. 4) 这个问题定义和激发的各种复杂问题”。本文就该问题展开研究,但缩小了这一更广泛范围,以探讨与人工智能 (AI) 系统相关的具体道德责任。Rachels 将“最低限度的道德概念”定义为“至少,努力用理性指导一个人的行为——即
以及是什么让它们变得民主,通常称为党内民主 (IPD)。我们研究现有的 IPD 测量方法,质疑其有效性,并探索通过机器学习 (ML) 技术增强它们的潜力。然后,我们将注意力转向 ML 在测量 IPD 和帮助政党进行日常组织方面的作用。由于政治团体的不透明性、活力和内部异质性,测量 IPD 具有挑战性,这些因素长期以来阻碍了该领域的研究。定量文本分析的最新进展提供了新的见解。学者们分析议会演讲,仔细研究党内会议上的辩论,并仔细研究党内文件以评估意识形态多样性。此外,他们还对党员和官员进行调查和问卷调查(Ceron,2017 年;Bernauer 和 Bräuninger,2009 年;Benoit 和 Herzog,2017 年;Greene 和 Haber,2017 年;2017 年;Medzihorsky、Littvay 和 Jenne,2014 年;Bäck,2008 年)。数字技术和社交媒体网站为收集相关信息以监测和评估 IPD 提供了新途径。然而,它们也引发了新的问题,即它们如何重塑 IPD 本身的动态(García Lupato 和 Meloni,2023 年;Dommett 等,2021 年;Scarrow,2013 年)。现有的 IPD 测量方法显示出一些局限性。首先,对于一个政党内部的民主究竟是什么,存在一定程度的概念模糊性(Borz & Janda,2020)。其次,目前的衡量标准往往侧重于正式要素,例如政党章程,而忽视了非正式做法,例如政党派系的影响或工会等外部影响。第三,标准的经验工具(如调查和问卷)带来了多重实际挑战,包括数据可用性有限、社会期望偏差、无法定期更新以及运行成本高昂。在本文中,我们不关注概念模糊性,这是一个影响所有方法的问题。相反,我们在特定的政党组织框架下,为 IPD 测量中更实际的挑战提供解决方案。为此,我们探索并映射数据管理和各种 ML 技术在 IPD 实证测量和研究中的适用性。这些技术涵盖多种任务,从数据收集和预处理到模式识别和定量测量。我们考虑了几种 ML 技术,例如自动文本/数据挖掘和自然语言处理 (NLP)(例如情绪分析、零样本/小样本分类 1 )、分类算法(例如逻辑回归)、集成方法(例如随机森林)和无监督学习(例如聚类算法)。接下来,我们分析政党如何利用 ML 来提高其内部组织和决策的公平性或有效性。最近的研究表明,尤其是在欧盟,政党越来越多地使用大数据和数字技术来竞选和运行其组织结构和功能(Barberà 等,2021 年)。传统的欧洲政党逐渐加强了其
执行摘要 人工智能 (AI) 技术有可能为投资者和投资公司带来机遇。对于投资者而言,AI 可以扩大获得更高质量产品和服务的渠道,提高市场参与度,降低成本,改善用户体验,增强决策能力,并最终提供更好的结果。对于公司而言,AI 可以提高效率和生产力,改善资源配置和客户服务,并增强风险管理和法规遵从性。然而,使用 AI 也存在潜在风险,包括“AI 清洗”、面向散户投资者的产品和服务不完善、“黑匣子”风险、模型和数据风险、缺乏对 AI 相关风险的明确披露、偏见和利益冲突、隐私问题、对第三方服务提供商的尽职调查和监控不足、系统性风险以及助长不良行为者的恶意行为。如果公司在开发和部署基于 AI 的产品和服务时采取“快速行动,打破常规”的心态,这些风险将会升级。如果 AI 以极快的速度和规模部署,潜在的危害可能会非常迅速地影响大量人群并波及整个经济。人工智能技术的快速发展也可能使监管机构难以跟上步伐。监管机构面临的一个挑战是,市场参与者使用基于人工智能的工具的方式在技术上是合法的,但仍然会损害投资者或市场诚信。另一个挑战是,市场参与者使用基于人工智能的工具从事监管机构难以发现的非法活动。缺乏数据和模型透明度可能会增加监管机构发现不当行为的难度。如果监管机构没有足够的资源来监控和处理人工智能的有害使用,这些挑战将会加剧。监管机构和市场参与者必须采取主动而不是被动的方法来应对这些风险。除了定期与所有利益相关者接触外,监管机构还应利用其审查和监督权力来了解公司如何开发和部署人工智能技术。监管机构还应开发自己的技术来检测市场上对人工智能技术的滥用。为此,监管机构需要足够的资源。公司还必须采取有意义的措施,确保他们开发和部署基于人工智能的工具不会损害投资者或市场诚信。如果复杂性、不透明性、不可靠性、偏见、利益冲突或数据不安全影响到人工智能应用,投资者可能会收到次优的产品和服务,损害他们的财务安全,并更广泛地削弱他们对基于人工智能的工具和投资市场的信任和信心。然而,如果公司和监管机构采取积极主动的方法来应对这些风险,人工智能的潜力就可以得到充分发挥。
毫无疑问,生成式人工智能 (AI) 是近年来媒体上的热门话题。这最初是由 ChatGPT 和其他平台的流行和广泛使用推动的,这些平台可根据用户输入的提示生成书面材料、图像甚至音频/视频作品。AI 将生成式人工智能定义为:“一种使用机器学习算法来创建新的原创内容(如图像、视频、文本和音频)的人工智能” [1]。这些技术进步如何影响我们的科学出版界?具体来说,在撰写出版的科学文章时,何时使用此类工具是合适的,或许更重要的是,何时不适合?严格来说,每当文字处理器建议一种更好的句子措辞方式时,基础人工智能就会被应用到写作中。从更复杂的层面来看,作者可以使用大型语言模型 (LLM) 将粗略撰写的草稿提交给生成式 AI 平台,然后可以生成更复杂的书面输出并最终提交。如果英语课的学生提交了这样一篇作业,而这堂课的目的是教学生如何写好文章,那么这种使用 AI 的行为可能构成作弊。然而,当作者使用 AI 来帮助润色他们的作品以供出版时,这应该是完全合适的,因为这样的应用程序可以增强作品,帮助读者更好地理解和欣赏这些作品。我们的期刊最近开始为我们的作者提供使用“综合写作和出版助手”来改进他们的投稿的选项。投稿作者应该看到我们与 Paperpal 飞行前筛选工具合作的服务链接。只需支付非常合理的费用,该工具就可以对上传的手稿草稿进行翻译、释义、一致性和期刊提交准备情况检查。这项服务对一些可能难以满足我们的语言要求标准的国际作者特别有用。在另一个适用于出版的场景中,假设同行评审员希望使用 AI 来评估投稿。你可能会问:“等等,AI 能做到吗?”当然可以!但这可以接受吗?确实有一些平台在公开的生物医学出版物上进行了训练,因此 AI 能够查找参考文献来帮助同行评审员评估稿件。也许同行评审员只是需要帮助开始撰写评审的第一稿,或者他们可能觉得作者的语言技能需要很多帮助,就像前面的情况一样。然而,这里的一个主要区别是,当同行评审员在其中一个平台上上传稿件时,他们会违反保密规定,这是不可接受的。美国国立卫生研究院不允许将 AI 用于资助申请的同行评审 [ 2 ],这种技术也不应用于出版同行评审,因为当作者的手稿上传到第三方平台时,也会发生同样的保密性泄露。Hosseini 和 Horbach (2023) 指出的其他担忧是“ LLM 的训练数据、内部运作、数据处理和开发过程的根本不透明性”,这可能导致“潜在的偏见和评审报告的可重复性” [3]。因此,将指示 JECT 同行评审员在进行评估时不要依赖此类系统。此外,编辑不会仅使用 AI 工具就任何手稿的最终结果做出决定。为了帮助作者驾驭这一新领域,JECT 将努力在我们的《作者须知》中提供新的指导,就像其他期刊目前正在实施的那样 [4]。其他期刊推荐的一些原则,我们可能会采用,包括: