问题陈述:人工智能公平性规则和基准的标准化具有挑战性,因为人工智能公平性和其他道德要求取决于多种因素,例如背景、用例、人工智能系统的类型等。在本文中,我们阐述了人工智能系统在其生命周期的每个阶段(从开始到使用)都容易产生偏见,并且所有阶段都需要给予应有的关注以减轻人工智能偏见。我们需要一种标准化的方法来处理每个阶段的人工智能公平性。差距分析:虽然人工智能公平性是一个热门的研究课题,但普遍缺乏人工智能公平性的整体策略。大多数研究人员只关注人工智能模型构建的几个方面。同行评审显示过度关注数据集中的偏见、公平性指标和算法偏见。在此过程中,影响人工智能公平性的其他方面被忽略了。提出的解决方案:我们提出了一种新颖的七层模型形式的综合方法,该模型受到开放系统互连 (OSI) 模型的启发,旨在标准化 AI 公平性处理。尽管各个方面存在差异,但大多数 AI 系统都有类似的模型构建阶段。提出的模型将 AI 系统生命周期分为七个抽象层,每个抽象层对应一个明确定义的 AI 模型构建或使用阶段。我们还为每一层提供了检查表,并讨论了每一层中潜在的偏见来源及其缓解方法。这项工作将促进 AI 公平规则和基准测试参数的分层标准化。
摘要 在 COVID-19 大流行的背景下,疫苗分配不公平的话题已被学术界、记者和政策制定者广泛讨论。然而,对疫苗公平性认知的研究尤其被忽视,导致对疫苗公平性缺乏普遍的理解。为了解决这个问题,我们根据现实主义和元叙事证据综合:不断发展的标准 (RAMESES) 出版标准对 COVID-19 疫苗公平性进行了元叙事审查。该审查包括 2020 年 1 月至 2021 年 9 月期间发表的文章。它旨在 (1) 确定考虑过这个主题的研究传统并研究它是如何概念化的;(2) 探讨不同研究小组对疫苗公平概念的理解可能存在的差异;(3) 调查作者提出如何实现疫苗公平性建议的角度。确定、背景化并讨论了来自不同研究传统的文献中的五个元叙事:疫苗分配框架和机制、全球卫生法、疫苗民族主义、伦理道德和修复性正义。我们的研究结果表明,需要对现有的全球 COVID-19 分配框架进行比较审查,重点是阐明对疫苗公平性的理解。COVID-19 不会是世界面临的最后一次健康危机。学术文献中的异质性是概念辩论和合法化方式的一部分,但为了全球公共卫生政策制定的利益,最好就公平开发、生产、分配和研究的进展达成共识。
© 作者 2022。开放存取 本文根据知识共享署名 4.0 国际许可进行授权,允许以任何媒体或格式使用、共享、改编、分发和复制,只要您给予原作者和来源适当的信任,提供知识共享许可的链接,并指明是否做了更改。 本文中的图片或其他第三方资料包含在文章的知识共享许可中,除非资料的致谢中另有说明。 如果资料未包含在文章的知识共享许可中,且您的预期用途不被法定规定允许或超出允许用途,则需要直接从版权所有者处获得许可。 要查看此许可证的副本,请访问 http://creativecommons.org/licenses/by/4.0/ 。知识共享公共领域贡献豁免(http://creativeco mmons.org/publicdomain/zero/1.0/)适用于本文中提供的数据,除非数据来源中另有说明。
究竟谁应该对推进全球正义负责,又应该如何引导他们?在这里,我们将在向贫穷国家和当地弱势群体(包括富裕国家的弱势群体)分发新冠疫苗的权利和义务的背景下回答这个问题。首先,我们确定了追求全球正义必须克服的两个被忽视的障碍:不明确和操纵。不明确适用于正义的实际含义。尽管道德规则可能会规定某些“公平”的分配方案,但这些方案的抽象性质意味着需要更具体的政策来实施它们。此外,正义的流动性和争议性使其容易受到自私自利的战略行为者的操纵和滥用。在下一节中,我们将解释这些问题如何适用于国家(国内)和全球疫苗正义。我们认为,民主参与疫苗正义的定义不仅对于克服这些障碍至关重要,而且也是鼓励接种疫苗的切实方法。确保疫苗公平需要我们确定谁应该在疫苗分配中优先考虑——无论是在每个州内(国内)还是跨州(全球)——以及基于什么理由,某些人有义务接种疫苗以保护其他个体,而某些国家有义务
。CC-BY 4.0 国际许可 它是根据作者/资助者提供的,他已授予 medRxiv 永久展示预印本的许可。(未经同行评审认证)
陆军将建立 DEIA 成熟度模型(图 12),通过分析数据来注释 DEIA 融入陆军文化的现状。该成熟度模型允许组织无缝过渡到整体 DEIA 战略阶段。陆军文化转型是 DEIA 战略中独特的“随时间推移的风险”组成部分,因为高层领导和新兵之间的代沟不断产生不断变化的障碍,阻碍着创造多元化和包容性的环境。陆军的 DEIA 战略计划和成熟度模型认识到了这种代沟,建立了持续评估系统。它评估组织和领导者,以确保未来陆军文化中个人和单位的凝聚力。图 12 代表了陆军成熟度模型的四个阶段:
德国埃森 stefan.stieglitz@uni-due.de 摘要 信息系统 (IS) 中的算法公平性是一种旨在减轻自动决策中的系统性歧视和偏见的概念。然而,先前的研究表明,不同的公平标准往往不相容。在招聘中,人工智能用于根据申请人是否适合空缺职位对其进行评估和排名。然而,基于人工智能的算法也存在各种类型的偏见(例如,使用有偏见的历史数据)。为了减少人工智能的偏见和由此产生的不公平待遇,我们进行了系统的文献综述,以确定适合招聘环境的策略。我们确定了九篇这方面的基本文章,并提取了四种解决人工智能不公平问题的方法,即预处理、过程中、后处理和特征选择。根据我们的研究结果,我们 (a) 制定了未来研究的研究议程,(b) 为设计和开发用于招聘的人工智能的从业者提出了策略。
然而,表达和实施这些思考是困难的,特别是在机器人和人工智能 (AI) 等新的复杂领域。为了这个目的,本书收集了体现人工智能的多样性、公平性和包容性 (DEI4EAI) 项目的思考、见解和工具。本书面向从事体现人工智能工作并有兴趣为更公平和公正的未来做出贡献的学生、研究人员、设计师、开发人员和社会利益相关者。所有那些被称为普通的东西实际上都是文化性的:它们代表着价值观、信仰和叙述,影响我们如何收集和使用数据、如何设计算法、如何定义代理、如何塑造人工智能体现、如何设计交互以及我们如何定义体现人工智能干预。尽管角色和能力不同,设计师、研究人员和更广泛的利益相关者(如政策制定者和社区)都有责任反思他们的价值观、观点、偏见和刻板印象如何影响具体化的人工智能技术。这很重要,因为孤立的实践会影响我们评估行为风险和危害的能力。为了防止设计有害和不充分的技术,需要以反思和开放的态度审视叙述、实践和方法,以转变思维方式。
部长多元化与包容性办公室将监督该计划的实施,并已召集了一个实施小组,该小组由负责该计划行动项目的各局和办公室的代表组成。该小组将每季度召开一次会议,以确保在规定的时间范围内实现目标和目的,并确保该计划得到适当的资源,特别是在未来几年。该计划及其随附的内部实施文件被视为“动态文件”,将进行调整以适应确定的最佳实践和新想法。实施小组将向由各局高级官员组成的部门多元化与包容性领导委员会提供最新信息和指导,以确保 DEIA 计划在整个部门内实施。
基于之前在伊灵(伦敦西北部)的参与,4 本研究通过“疫苗(不)公平”的视角,在两个城市环境(马赛(北部地区)和伦敦(伊灵区)作为比较对象)中调查了这些差异。为了填补文献空白,我们关注当地参与者的作用,认为地方政府、卫生参与者、社区团体和居民在塑造疫苗(不)公平方面发挥着关键作用。我们的团队还将当地疫苗不平等现象定位在他们所在社区 5 内——包括更广泛的政治、经济和其他结构性背景和不平等——认识到许多因素可能以复杂的方式相互作用产生不平等。我们还采用“道德框架”的概念来了解人们如何理解和寻求疫苗接种。我们还试图了解这种地方动态是否以及如何反映在地方政府推广和提供 COVID-19 疫苗的方法中。