对多样性、公平和包容的承诺深深植根于信用合作社体系和国家信用合作社管理局。对于熟悉美国信用合作社运动历史的人来说,这一承诺并不令人意外。自一个多世纪前成立以来,全国各地的信用合作社一直致力于为其成员建立更安全、更光明的金融未来。通常,来自资源不足和边缘化社区的人们聚集在一起,通过汇集有限的资源来创建满足其独特金融需求的金融机构,从而组建信用合作社。今天,这种多样性、公平和包容的传统仍然是该体系的指导力量。十分之一的联邦保险信用合作社是少数族裔存款机构。而且,尽管这些机构的平均资产略高于 1 亿美元,但作为一个整体,它们的平均资产回报率通常与资产超过 10 亿美元的最大信用合作社相当。此外,在过去一年中,十分之一的联邦保险信用合作社提交了对自愿信用合作社多样性自我评估的回复。近年来,各种类型和规模的信用合作社也越来越认识到多元化、公平和包容的商业主张。信奉这些原则的信用合作社更有可能获得更好的收益、更高的消费者忠诚度和更高效的员工队伍。这些积极的业务成果反过来又会增强信用合作社的业绩。同样,NCUA 寻求从广泛的人才和观点中汲取力量,以创造一个多元化和包容的环境,让我们的每一位员工都有潜力充分利用机会、推动创新,进而打造一个更强大的机构。此外,通过 NCUA 现在每年举办的全行业多元化、公平和包容峰会、社区发展循环贷款基金的赠款和贷款以及对少数族裔存款机构的指导和支持计划等举措,NCUA 不仅在机构内部,而且在整个信用合作社系统中推进多元化、公平和包容。在多元化、公平和包容方面,NCUA 还必须以身作则。为此,该战略计划概述了该机构在劳动力多样性、员工包容性、工作场所解决方案、供应商多样性以及
• 通过这种合作关系(称为 iREACH),受助者计划并执行适合当地文化的项目,以解决黑人/非裔美国人、拉丁裔、亚裔、美洲印第安人、太平洋岛民和阿拉斯加原住民社区在免疫覆盖方面的种族和民族差异问题。
8 英国于 2014 年颁布了针对 TDM 的有限例外,参见 1988 年《版权、外观设计和专利法》第 29A 条,但已宣布进一步推进的计划,参见 UKIPO,《新闻稿:人工智能和知识产权 - 版权和专利》(2022 年 6 月 28 日)(https://www.gov.uk/government/news/artificial-intelligence-and-ip-copyright-and-patents)。日本《版权法》第 30(4) 条允许非表达性使用受版权保护的作品,只要这种使用不会“根据作品的性质或目的或其使用情况,不合理地损害版权所有者的利益……”。参见日本《版权法》(1970 年 5 月 6 日第 48 号法案,经修订至 2022 年 1 月 1 日),第 30(4) 条,可查阅(https://wipolex.wipo.int/en/legislation/details/21342)。2019 年 4 月,欧盟通过了《数字单一市场指令》(“DSM 指令”),其中针对文本和数据挖掘提出了两项强制性例外。DSM 指令第 3 条要求所有欧盟成员国对非营利研究领域的 TDM 实施广泛的版权例外。DSM 指令第 4 条包含第二项强制性豁免,该豁免范围更具包容性,但较窄。请参阅,2019/790 号指令,OJ 2019 (L 130/92)。另请参阅 Pamela Samuelson,《版权作品的文本和数据挖掘:合法吗?》64:11 C OMMUNICATIONS OF THE ACM 20 (2021)。
摘要 简介 2020 年布伦娜·泰勒和乔治·弗洛伊德被谋杀迫使机构公开承认系统性种族主义。在加拿大医疗保健领域,一些医院利用这一关键时刻制定了战略公平计划,以解决反黑人种族主义和持续的健康不平等问题。 方法 通过案例研究的方法,我们选择了加拿大多伦多的三家医院,并分析了它们最近公开的多样性、公平和包容性 (DEI) 战略计划。 结果 这三家医院都在 2020 年后发布了新的 DEI 战略,涵盖了类似的基础:将 DEI 纳入人力资源实践、服务的文化适应、基于种族的数据收集和培训投资。虽然三分之二的医院报告了其反黑人种族主义承诺的进展,但要采取的具体行动和监测和跟踪进展的标准各不相同。 结论 所分析的 DEI 计划最早将在 2023 年到期,最晚将在 2025 年到期。我们提供高级建议来指导这项工作超越这些时间表。反种族主义改革与和解不是一次性事件,而是需要周密的计划、与社区的合作、劳动力(即资源和人员)的投入、反思和深思熟虑。
决策系统的自动化导致了人工智能 (AI) 使用中的隐藏偏见。因此,解释这些决策和确定责任已成为一项挑战。因此,出现了一个新的算法公平性研究领域。在这个领域,检测偏见并减轻偏见对于确保公平和无歧视的决策至关重要。本文的贡献包括:(1) 对偏见进行分类,以及偏见与人工智能模型开发的不同阶段(包括数据生成阶段)的关系;(2) 修订公平性指标以审核数据和用它们训练的人工智能模型(在关注公平性时考虑不可知模型);(3) 对减轻人工智能模型开发不同阶段(预处理、训练和后处理)偏见的程序进行新的分类,并增加有助于生成更公平模型的横向行动。
为了确保算法决策系统的公平性,例如就业主持工具,计算机科学家和从业人员通常将所谓的“四分之一五分之一规则”提及,以衡量工具遵守反歧视法。这种依赖是有问题的,因为“规则”实际上不是歧视歧视的法律规则,并且提供了一种粗略的测试,通常在确定需要进一步审查的实践方面过于忽略和不包括。“四分之一的规则”是一类更广泛的统计检验之一,我们称之为统计奇偶校验测试(SPTS),比较了人口统计组之间的选择率。虽然某些SPT在统计学上更稳定,但所有人都在回顾性地具有不同的不同影响方面具有一些关键局限性。当这些测试被预期用作优化目标塑造模型开发时,就会出现对开发过程,行为激励措施和配盖性的其他担忧。在本文中,我们讨论了SPT在算法治理中的适当作用。我们建议采用多种措施,以利用预期优化过程中存在的其他信息,从而在建立和审计模型时更深入地了解公平考虑因素。
近年来,人工智能 (AI) 已成为我们日常生活中不可或缺的一部分,帮助我们做出决策。在这种交互过程中,AI 算法通常使用人类行为作为训练输入。因此,重要的是要了解人们在训练 AI 时是否会改变他们的行为,以及当训练对他们没有好处时他们是否会继续这样做。在这项工作中,我们在最后通牒游戏的背景下进行行为实验来回答这些问题。在我们的版本中,参与者被要求决定是否接受或拒绝其他人类参与者或 AI 提出的金钱分割提议。一些参与者被告知他们的选择将用于训练 AI,而其他参与者没有收到此信息。在第一个实验中,我们发现参与者愿意牺牲个人收入来训练 AI 变得公平,因为他们变得不太倾向于接受不公平的提议。第二个实验重复并扩展了这一发现,结果显示参与者有动力训练人工智能,即使他们将来永远不会遇到它。这些发现表明人类愿意付出成本来改变人工智能算法。此外,它们表明,人工智能训练过程中的人类行为不一定与基线偏好一致。这一观察结果对人工智能发展提出了挑战,表明人工智能算法在推荐选择时考虑其对行为的影响非常重要。
摘要:本综述从定性和数学角度定义了算法偏见和公平性的概念。给出了算法开发中出现意外偏见或不公平时可能出现的问题的说明性示例。讨论了可解释性、可问责性和透明度对于人工智能算法开发和临床部署的重要性。这些都基于“primum no nocere”(首先,不伤害)的概念。提供了减轻任务定义、数据收集、模型定义、训练、测试、部署和反馈中的不公平和偏见的步骤。我们将讨论如何实施公平标准,以最大限度地提高效益并最大限度地减少对神经放射学患者的不公平和伤害,包括当人工智能算法被神经放射学实践接受并纳入常规临床工作流程时,神经放射学家应考虑的建议。