Sana Halwani 受邀在加拿大知识产权协会的项目中分享她的专业知识。Sana 主持了一场关于性别偏见在人工智能领域表现方式、我们可以做些什么以及人工智能如何帮助我们解决性别偏见的讨论。
人工智能 (AI) 和其他机器学习 (ML) 应用正日益渗透到我们生活的各个方面,医疗保健也不例外。除了新兴应用之外,AI 已经以多种方式得到应用,包括医学成像、解析和整理电子病历、优化护理轨迹、诊断、提高临床试验的入组率,甚至减少医疗错误 (1-4)。这不是一份详尽的清单;可以说,这些应用与医学领域本身一样多种多样且复杂。2018 年,纳菲尔德生物伦理委员会指出,由于 AI 在用于训练 ML 算法的数据集中重现偏见的方式,以及偏见可以“嵌入算法本身,反映 AI 开发人员的信念和偏见”的方式,AI 在医疗保健领域的使用可能存在问题 (2)。在本文中,我认为偏见是指对边缘群体有意识和无意识的负面情绪或看法,这种情绪或看法根源于历史歧视,会影响一个人的行为和思维方式。这些偏见及其对健康的负面影响已经在最近的 ImpactPro 研究等案例中得到体现,该研究发现纽约联合健康服务中心的一种算法未能以与白人患者相同的比例向黑人患者推荐复杂的健康需求计划 (5-6)。因此,医疗保健领域必须应对此类技术的普及,以纠正医疗保健系统中先前的不平等现象,这些不平等现象产生了人工智能技术目前正在重现的偏见数据 (4,7)。为此,医疗从业人员必须采取各种反偏见措施,例如隐性偏见培训、医学偏见教育和“换位思考”,并承担起 AI 技术监督者和合作者的责任。目前用于减少日常医疗互动中偏见的许多措施可以转移到 AI 中,尤其是当医疗从业人员对 ML 算法推荐的决策拥有最终决定权时。很难确定 AI 在医疗保健领域应用的通用规则,因为应用、用途和环境非常多样化,并且一直在发展。鉴于此,我将使用 ImpactPro 案例来说明 AI 对医疗保健的影响如何重申在提供医疗服务以更好地满足边缘化患者的健康需求时打击偏见的现有职责。我认为 ImpactPro 案例表明,医疗从业者有机会通过减少医院和医学研究中的偏见实践以及与边缘化社区建立信任来抵制 AI 算法中的偏见,最终目标是改善用于训练 AI 的数据,并更快地发现 AI 结果存在偏见的案例。这些途径也符合 AI 最佳实践的原则,例如《蒙特利尔人工智能负责任发展宣言》和人工智能高级专家组 (HLEG) 提出的原则。
全球卫生危机为人工智能 (AI) 解决方案的开发带来了前所未有的机遇。本文旨在通过实施以人为本的 AI 来帮助组织中的决策者,从而解决人工智能中的部分偏见。它依赖于两个设计科学研究 (DSR) 项目的结果:SCHOPPER 和 VRAILEXIA。这两个设计项目通过两个互补的阶段将以人为本的 AI 方法付诸实践:1) 第一个阶段安装了以人为本的知情设计流程,2) 第二个阶段实现了聚合 AI 和人类的使用架构。所提出的框架具有许多优势,例如允许将人类知识整合到 AI 的设计和训练中,为人类提供对其预测的可理解解释,并推动增强智能的出现,可以将算法转变为对人类决策错误的强大平衡,将人类转变为对 AI 偏见的平衡。
摘要 通过生成对抗网络 (GAN),人工智能 (AI) 已经影响到许多领域,尤其是艺术领域,成为人类任务的象征。在人机交互 (HCI) 研究中,通常会引用对人工智能、机器或计算机的感知偏见。然而,实验证据仍然缺乏。本文提出了一项大规模实验,其中 565 名参与者被要求从四个维度评估绘画(由人类或人工智能创作):喜欢、感知美、新颖性和意义。使用两个受试者间条件来评估启动效应:呈现为由人工智能创作的艺术品和呈现为由人类艺术家创作的艺术品。最后,被认为是人类绘制的画作比被认为是由人工智能创作的画作获得更高的评价。因此,以前所未有的方式使用这种方法和样本,结果显示出对人工智能的认知存在负面偏见,而对人类系统的偏好偏见。
在本次审查中分配给PCA的案件的平均年龄仅为三年以上,而2021财年的审查中的五年则超过五年。在Tigta的初始PDC程序报告中,我们建议国税局尝试在收集过程中较早地识别不活动的情况并将其分配给PCAS。尽管美国国税局不同意该建议,但在纳税人第一法案在2021年生效后,该案件开始更快地分配案件。该立法取代了从“适用时期的1/3以上”中的不活动应收账款中的资格标准,而“自评估以来已经过去2年以上已经过去2年”。 PCA库存的平均年龄在我们的2021财年绩效审查中为5.31岁,在我们的2023财年和2025财年的评论中分别跌至4.26和3.1岁。12
基于种族,性别或阶级等特征,因此与公平问题有关。例如,许多状态(例如阿根廷,法国,巴勒斯坦和塞拉利昂)强调了需要解决AWS对数据集的依赖的风险,“可以永久或扩大了无意的社会偏见,包括性别和种族偏见”。14同样,其他状态(例如奥地利,比利时,加拿大,哥斯达黎加,德国,爱尔兰,墨西哥,巴拿马和乌拉圭)强调了越来越多的文献,即“人工智能中性别和种族偏见的例子”,“基于数据的系统重现存在不平等现象”。15在国家政策声明中也表达了对偏见的类似问题。例如,美国国防部强调对AI的“公平”使用,并承诺“采取故意措施最大程度地减少AI能力的意外偏见”。16同样,英国国防部强调,“算法偏见或偏斜的数据集产生的犯罪结果的风险”特别关注AI支持的军事系统。17这些偏见的说法在很大程度上反映了专家文献的一部分,这些文献将偏见视为不平等的治疗问题。
本研究研究了在43年(1980- 2023年)中引用在20个研究领域的较旧工作的趋势。我们将NLP在这20个领域的背景下引用了较旧的工作,以分析NLP是否随着时间的推移显示与它们相似的时间引用模式,或者是否可以观察到差异。我们的分析基于约2.4亿篇论文的数据集,揭示了更广泛的科学趋势:引用较旧的作品(例如,心理学,计算机科学)时,许多领域的趋势明显下降。NLP和ML研究中的趋势最强(引用年龄为-12.8%和-5.5%)。我们的结果表明,即使在控制论文数量的增加时,即使在正式科学中,人文学科的近期作品并不是出版率增长的直接驱动(跨领域为-3.4%;人文科学的-5.2%;在正规科学中-5.5%)。我们的发现提出了有关科学界与过去文学的参与,特别是对于NLP的疑问,以及忽略较旧但相关的研究的潜在后果。数据和展示我们的结果的演示已公开可用。1
抽象不平等的诊断准确性是基于AI的模型的广泛关注点。然而,当前的偏差表征是狭窄的,并且无法说明上游数据收集的系统偏见,从而将AI性能的不平等现象与偏见混合在一起,这是由于数据集本身的分布差异。此差距具有广泛的含义,导致降低偏见的策略无效。我们介绍了一种新颖的回顾性模型评估程序,该程序识别并表征了解释人口级诊断差异的受保护群体之间的分布差异的贡献。在三个大规模的胸部射线照相数据集中,我们一直发现年龄和混淆图像属性(例如病理类型和大小)的分布差异有助于跨种族亚组的模型性能较差。通过系统地将观察到的不足诊断偏见归因于由于数据收购过程中的偏差或数据集偏见而引起的分布差异,我们提出了一种通用方法,用于解散不同类型的数据集偏置如何相互作用和化合物以造成可观的AI性能差异。我们的方法是可以采取行动的,可以帮助设计针对特定亚群的基础模型的目标干预措施,而不是忽略上游数据偏见不平等AI性能的系统贡献的方法。
本文研究了隐私监管如何影响不同司法管辖区的人工智能 (AI) 创新轨迹。我们根据数据强度构建了一种新的人工智能技术分类法,并分析了 2010 年至 2021 年来自 57 个国家/地区 76 个行业的专利申请。我们的描述性分析揭示了三个关键模式:2010 年代人工智能方法从数据保存型向数据密集型的重大转变、成熟企业创新市场集中度不断提高以及全球创新产出和技术重点的地理差异明显。利用企业对欧盟通用数据保护条例 (GDPR) 的接触差异,我们发现接触到的申请人显著改变了他们的技术轨迹。与 GDPR 之前的时期相比,在欧盟市场接触较多的申请人增加了数据保存型专利,同时减少了数据密集型专利。这种影响主要由欧盟公司推动。此外,GDPR 似乎减少了欧盟的整体人工智能专利数量,同时加强了老牌公司的市场主导地位。
我们的基础研究重点关注以下技术问题:在使用监督学习时如何衡量这些预测差异,以及如何在这种背景下减轻这些差异?我们关注现有文献如何在人口统计特征或脆弱性特征可以测量或代理(即使用基于其他数据(例如人名)的概率模型进行预测)时提出这一点,以及在无法做到这一点时的替代方案。然而,我们知道,即使不同人口统计群体的人在预测和最终结果上存在差异,也存在关于这种差异的原因和理由的单独问题。为此,重要的是要考虑使用模型的更广泛背景,并在适当的情况下,考虑任何非歧视性的商业理由或其他理由来衡量任何差异。