数字双胞胎的患者心脏有可能实现个性化治疗并改善患者预后。只有可以从患者数据(例如图像)中有效地创建数字双胞胎的方法,才能充分实现这种潜力。已经在使用最先进的人工智能(AI)技术实现这一目标的努力。但是,最近的工作表明,在接受人口统计学不平衡数据集训练时,用于图像分析的AI工具可能会遭受隐藏的偏见,即他们可能是“不公平的”。例如,根据模型的训练数据中这些受保护组的分布,AI心脏图像分割模型可以表现出不同性别和种族的不同水平的性能。尚未研究基于数字双胞胎的基于AI的偏见,这依赖于这种技术。该项目将进行第一次此类调查,并将重点放在心脏病学领域。项目描述
© 作者 2022。开放存取 本文根据知识共享署名 4.0 国际许可进行授权,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信任,提供知识共享许可的链接,并指明是否做了更改。 本文中的图片或其他第三方资料包含在文章的知识共享许可中,除非资料的致谢中另有说明。 如果资料未包含在文章的知识共享许可中,且您的预期用途不被法定规定允许或超出允许用途,则需要直接从版权所有者处获得许可。 要查看此许可证的副本,请访问 http://creativecommons.org/licenses/by/4.0/ 。知识共享公共领域贡献豁免(http://creativeco mmons.org/publicdomain/zero/1.0/)适用于本文中提供的数据,除非数据来源中另有说明。
近年来,人工智能 (AI) 已成为我们日常生活中不可或缺的一部分,帮助我们做出决策。在这种交互过程中,AI 算法通常使用人类行为作为训练输入。因此,重要的是要了解人们在训练 AI 时是否会改变他们的行为,以及当训练对他们没有好处时他们是否会继续这样做。在这项工作中,我们在最后通牒游戏的背景下进行行为实验来回答这些问题。在我们的版本中,参与者被要求决定是否接受或拒绝其他人类参与者或 AI 提出的金钱分割提议。一些参与者被告知他们的选择将用于训练 AI,而其他参与者没有收到此信息。在第一个实验中,我们发现参与者愿意牺牲个人收入来训练 AI 变得公平,因为他们变得不太倾向于接受不公平的提议。第二个实验重复并扩展了这一发现,结果显示参与者有动力训练人工智能,即使他们将来永远不会遇到它。这些发现表明人类愿意付出成本来改变人工智能算法。此外,它们表明,人工智能训练过程中的人类行为不一定与基线偏好一致。这一观察结果对人工智能发展提出了挑战,表明人工智能算法在推荐选择时考虑其对行为的影响非常重要。
最近的研究表明,深度学习模型可以根据种族和性别等受保护的类别进行区分。在这项工作中,我们评估了深度伪造数据集和检测模型在受保护子群体中的偏差。使用按种族和性别平衡的面部数据集,我们检查了三种流行的深度伪造检测器,发现不同种族之间的预测性能存在很大差异,不同子群体之间的错误率差异高达 10.7%。仔细观察就会发现,广泛使用的 FaceForensics++ 数据集绝大多数由白种人组成,其中大多数是白种人女性。我们对深度伪造的种族分布的调查显示,用于创建深度伪造作为正面训练信号的方法往往会产生“不规则”的面孔——当一个人的脸被换到另一个不同种族或性别的人身上时。这导致检测器学习到前景面孔和假象之间的虚假相关性。此外,当使用 Face X-Rays 的混合图像 (BI) 数据集对检测器进行训练时,我们发现这些检测器会对某些种族群体(主要是亚洲女性)产生系统性歧视。
相当抽象,无法指导如何设计以及设计什么。最近的研究 [ 4 ] 已开始研究设计模式以指导详细的用户界面设计。除了以用户为中心的设计 (UCD) 流程之外,还提出了设计透明 AI 系统的总体设计方法 [ 5 ]。在本文中,我们回顾了现有的设计方法研究,以指导负责任和合乎道德的 AI 系统和用户界面的设计者。然后,我们提出了一种新方法,即共同设计公平 AI 交互 (CoFAIR),该方法包括一系列共同设计研讨会,然后进行更广泛的评估,以创建合适的用户界面,使其能够探索目标用户群体的公平性。我们通过案例研究展示了该方法的应用。我们讨论了我们的方法的局限性,以及如何将此方法推广到设计合乎道德和负责任的人工智能系统。
我们推出了 Fairlearn,这是一个开源工具包,它使数据科学家和开发人员能够评估和提高其 AI 系统的公平性。Fairlearn 有两个组件:交互式可视化仪表板和不公平缓解算法。这些组件旨在帮助在公平性和模型性能之间进行权衡。我们强调,在 AI 系统中优先考虑公平性是一项社会技术挑战。由于不公平的来源有很多种——有些是社会的,有些是技术的——因此不可能完全“消除”一个系统的偏见或保证公平性;目标是尽可能减轻与公平相关的危害。随着 Fairlearn 不断发展,包括更多的公平指标、不公平缓解算法和可视化功能,我们希望它能够由一个多元化的利益相关者社区塑造,从数据科学家、开发人员和业务决策者到生活可能受到 AI 系统预测影响的人们。
随着用于医学图像分析的人工智能 (AI) 系统的发展呈指数级增长,医院和医疗中心已开始在临床实践中部署此类工具 1 。这些系统通常由一种称为深度学习 (DL) 的特定类型的机器学习 (ML) 技术提供支持。DL 方法通过采用具有不同抽象级别的多层处理来学习复杂的数据表示,这对于解决广泛的任务很有用。在医学图像计算 (MIC) 背景下,此类任务的示例包括病理分类、解剖分割、病变描绘、图像重建、合成、配准和超分辨率等 2 。虽然与在实验室条件下应用于不同 MIC 问题的 DL 方法相关的科学出版物数量呈指数级增长,但旨在评估医疗 AI 系统的临床试验最近才开始获得发展势头。事实上,根据美国放射学会的数据,迄今为止,美国食品药品监督管理局 (FDA) 批准的与放射学和其他成像领域相关的 AI 医疗产品不到 200 种 3 。最近,机器学习公平性研究界强调,机器学习系统可能会对某些亚群体产生偏见,即它们对不同亚群体表现出不同的表现,这些亚群体由年龄、种族/民族、性别、社会经济地位等受保护属性定义 4、5 。在医疗保健领域,算法对不同人群亚群体的潜在不平等行为甚至可能被认为违背了生物伦理学原则:正义、自主、仁慈和非男性原则 6 。在这种背景下,促进 MIC 的公平性变得至关重要。然而,这绝非易事:确保机器学习部署的公平性需要解决整个设计、开发和实施过程中的多个不同方面。虽然机器学习公平性对
• 平等涉及给予每个人相同的资源和机会。然而,平等并不能确保每个人都能获得相同的结果,因为它没有考虑到影响某些群体的系统性障碍。• 公平解决不平衡的社会制度本身,认识到个人的情况不同,需要不同的资源和机会才能实现平等的结果。• 差距是指差异,通常是在不公平差异的背景下。
关于公平性,ACJON打算在数据库/微观气候测量的数据库/集合之间改善标准化和集成,这些测量是研究项目的一部分或为特殊目的建立的本地/地区/区域观察网络(AgromeTEOLOGY,URBAN MIRBAIMATE MIRCOCLIMATE MONUITIC)建立的。应对认真的挑战需要欧洲委员会的研究人员,利益相关者(扩展服务和环境机构,地方作者和部委,SME),SME)以及民间社会(专业和公众)(专业和公众)(专业和公众)(专业和公众),从临时并改善了散热剂。
•就业策略的公平和公平符合部指令的要求26。•总体全面策略将遵循里程碑方法,重点关注招聘过程,政策和程序更新,遵循就业系统审查的建议以及从工作场所人口普查中获得的学习。•该策略是全面的,遵循学生驱动的,能力和基于证据的方法。•工作场所权益将使用高质量的数据来了解推动不平等的因素,并能够针对行动以实现最有效的结果。背景:Peel地区学校董事会以及最近三年的最近,致力于在2020年3月发布的部指令之后在董事会上解决系统性歧视。董事会要解决的结论指令是指令26,该指令要求董事会在ESR和劳动力人口普查的结论和发现后,在就业战略中建立公平和公平性。指令26个状态: