Error 500 (Server Error)!!1500.That’s an error.There was an error. Please try again later.That’s all we know.
目前,加拿大卫生部是使用人工智能的医疗设备和系统的监督机构。2022 年 6 月,加拿大政府提出《人工智能和数据法案》(AIDA),作为 C-27 法案《2022 年数字宪章实施法案》的一部分,作为首批人工智能国家监管框架之一。2023 年,加拿大卫生部发布了《指导草案:机器学习医疗设备上市前指导》,为根据法规提交新申请或修订 II、III 和 IV 类机器学习医疗设备 (MLMD) 申请的制造商提供指导。注册人只能使用加拿大卫生部批准的 MLMD,并且在这样做时,了解设备分类、支持在临床实践中使用该设备的证据级别以及设备的局限性。
关于使用人工智能工具和系统的负责任的公开披露。有关人工智能使用的信息将向重型车辆行业、道路管理人员、其他道路使用者和澳大利亚公众提供和获取,以支持更好地了解人工智能何时使用以及如何做出决策(请注意,决策将由 NHVR 官员而不是系统本身做出)。
人工智能 (AI) 与医疗保健的融合带来了重大机遇和挑战,尤其是在道德考量方面。本研究采用叙述性综述方法,综合了有关管理医疗保健领域 AI 技术的道德准则的现有文献,重点关注公平性和可及性、透明度和问责制、数据隐私和安全、协作、可持续性、以患者为中心以及促进健康和福祉等原则。通过研究不同的研究,本综述确定了新兴趋势,强调了当前研究中的差距,并将研究结果置于更广泛的医疗保健领域中。叙述性综述的灵活性使我们能够全面探索医疗保健领域 AI 的复杂性,揭示了多学科协作和强有力的监管框架的必要性,以确保负责任的实施。此外,该研究强调了让服务不足的社区参与进来并优先考虑可持续性以改善健康结果和促进公平的重要性。最终,本研究有助于更深入地了解道德原则如何指导 AI 技术在医疗保健系统中的有效整合,为改善患者护理和与可持续发展目标保持一致铺平道路。总之,虽然这些道德准则为人工智能在医疗保健领域的整合提供了强有力的框架,但成功实施需要不断评估和调整。利益相关者必须保持警惕,确保人工智能技术不仅有效,而且公平、透明,并与改善不同人群的患者护理和健康结果的最终目标保持一致。
可持续发展目标 (SDG) 需要推动。人工智能 (AI) 帮助数字经济和数字鸿沟的最大且尚未开发的机会是将人类的能力融入其解决方案中。与世界上最脆弱的人群合作,使人工智能从业者肩负着巨大的责任,他们在实施人工智能技术时必须合乎道德、透明和国际化。人工智能可以解决卫生和教育部门的技能不足问题。人工智能应用为发展中国家弥合数字鸿沟和创建包容性社会提供了巨大的机会。尽管发展中国家 80% 的人口拥有手机,但仍有超过 17 亿人(其中大部分是女性)没有手机。1
背景:人工智能 (AI) 的进步为各个领域带来了众多好处。然而,它也带来了必须解决的道德挑战。其中之一是人工智能系统缺乏可解释性,即无法理解人工智能如何做出决策或产生结果。这引发了人们对这些技术的透明度和可问责性的质疑。这种可解释性的缺乏阻碍了人们对人工智能系统如何得出结论的理解,这可能导致用户不信任并影响此类技术在关键领域(例如医学或司法)的采用。此外,人工智能算法中还存在有关责任和偏见的道德困境。方法:考虑到上述情况,从伦理角度研究可解释人工智能的重要性存在研究空白。研究问题是人工智能系统缺乏可解释性的伦理影响是什么,以及如何解决这个问题?这项工作的目的是了解这个问题的伦理影响并提出解决它的方法。结果:我们的研究结果表明,人工智能系统缺乏可解释性会对信任和问责产生负面影响。用户可能会因为不理解某个决定是如何做出的而感到沮丧,这可能会导致对技术的不信任。此外,缺乏可解释性使得很难识别和纠正人工智能算法中的偏见,而偏见可能会导致不公正和歧视。结论:这项研究的主要结论是,人工智能必须在伦理上可解释,以确保透明度和问责制。有必要开发工具和方法,以便了解人工智能系统如何工作以及如何做出决策。促进人工智能、伦理和人权专家之间的多学科合作也很重要,以全面应对这一挑战。
** 印度古尔冈索纳 Apeejay Stya 大学管理科学学院学生 电子邮件:aryan.sharma@asu.apeejay.edu
然而,所有人工智能解决方案的全部有效性都受到算法无法向人类专家“解释”其结果以帮助回答为什么做出机器决策的限制,这是医学领域的一个大问题。最终,要达到可用的计算智能水平,我们不仅需要从先前数据中学习、提取知识、概括和对抗维数灾难,还需要解开数据的潜在解释因素(即在医学问题的背景下理解数据)。在医学领域,我们面临着复杂的挑战,特别是在任意高维空间中各种分布式和异构数据的集成、融合和映射。因此,我们必须考虑到不同的数据对相关结果的贡献。
摘要 — 测试自动化在软件开发中很常见;通常需要反复测试以识别回归。如果测试用例数量很大,则可以选择一个子集并仅使用最重要的测试用例。回归测试选择(RTS)可以实现自动化,并通过人工智能(AI-RTS)进行增强。然而,这可能会带来道德挑战。虽然人工智能中的此类挑战通常已得到充分研究,但在道德 AI-RTS 方面仍存在差距。通过探索文献并借鉴我们开发行业 AI-RTS 工具的经验,我们通过确定三个挑战(分配责任、决策偏见和缺乏参与)和三种方法(可解释性、监督和多样性)为文献做出了贡献。此外,我们还提供了一份道德 AI-RTS 清单,以帮助指导参与该过程的利益相关者的决策。
工具包简介 该工具包旨在帮助员工考虑将 GenAI 合乎道德地融入他们的学习和教学实践中。前几个部分——什么是生成人工智能?、常用术语词典、关键人工智能素养、学术诚信以及当前的能力和局限性——将帮助员工熟悉 GenAI 及其在教育中的潜在用途和误用。员工还可以直接使用这些部分的内容来向学生介绍 GenAI 和道德使用。后面的部分——风险评估、案例研究:评估使用 ChatGPT 完成作业和实践示例 - 将 GenAI 融入学习活动——分享了来自学科特定案例研究和作为 (AI)²ed:学术诚信与人工智能研究项目的一部分完成的研究的例子。这些案例研究是由学生和员工项目配对进行的,他们考虑了如何在他们的学科中整合和减轻使用 GenAI 的方法。