摘要:人工智能(AI)正在改变EM策略,医疗保健和刑事司法等关键行业,但它也引入了重要的道德和法律挑战,尤其是在性别偏见方面。AI系统经常接受有偏见的历史数据培训,可以使现有的性别不平等永久化甚至扩大。本文探讨了人工智能中性别偏见的法律意义,重点介绍了对反歧视法,透明度问题的挑战以及对监管监督的需求。AI中的性别偏见,从而导致歧视性结果。这种偏见不是技术缺陷,而是使用歧视模式的数据和算法的结果。主要是男性的AI开发人员之间缺乏多样性,通过未解决妇女和边缘化群体的观点和需求来加剧这个问题。
摘要:偏见可以定义为受到人或群体的倾向,从而促进不公平。在计算机科学中,偏见称为算法或人工智能(即AI),可以描述为在计算机系统中展示反复错误的趋势,从而导致“不公平”结果。“外部世界”和算法偏差的偏见是互连的,因为许多类型的算法偏见源自外部因素。在不同领域中识别出的各种不同类型的AI偏见突出了对上述AI偏见类型的分类的必要性,并提供了识别和减轻它们的方法的详细概述。存在的不同类型的算法偏差可以根据偏差的起源分为类别,因为偏见可以在机器学习(即ML)生命周期的不同阶段发生。本手稿是一项文献研究,提供了有关偏见的不同类别的详细调查以及已提出识别和减轻它们的相应方法的详细调查。这项研究不仅提供了可用的算法来识别和减轻偏见,而且还提高了ML工程师的经验知识,以基于其用例对本手稿中介绍的其他方法的相似性来识别偏见。根据这项研究的发现,可以观察到,在鉴定和缓解方面,文献中更好地涵盖了某些类型的AI偏见,而其他AI偏差则需要更多地研究。这项研究工作的总体贡献是为ML工程师以及有兴趣开发,评估和/或使用ML模型感兴趣的每个人都可以利用偏见的识别和缓解偏差的有用指南。
人们认识到人工智能 (AI) 具有减少医疗保健差距和不公平现象的潜力,但如果不以公平的方式实施,它也会加剧这些问题。这种观点确定了人工智能生命周期每个阶段的潜在偏见,包括数据收集、注释、机器学习模型开发、评估、部署、操作化、监控和反馈集成。为了减轻这些偏见,我们建议让一群不同的利益相关者参与进来,采用以人为本的人工智能原则。以人为本的人工智能有助于确保人工智能系统的设计和使用方式有利于患者和社会,从而减少健康差距和不公平现象。通过识别和解决人工智能生命周期每个阶段的偏见,人工智能可以在医疗保健领域发挥其潜力。
摘要 文化和背景可能导致评估不准确,包括传统测试和替代性评估。标准化测试旨在测量智力和一般知识,但它们是基于多数群体的知识和价值观而制定的,这可能会对少数群体产生偏见,包括性别、种族、社区地位以及具有不同语言背景、社会经济地位和文化的人。虽然替代性评估被认为在文化上更加公平,但它们仍然不是完全公平的。创造力与智力同样重要,创造力评估措施是基于个体文化而制定的。为了减少偏见,我们建议在传统测试和替代性评估中增加创造力评估。 关键词:评估,文化偏见,创造力,标准化测试,文化效度
主要 RQ:挪威人工智能从业者对人工智能性别偏见的主要观点是什么?...................................................................................................................................... 109
人工智能正在改变人力资源管理 (HRM) 的格局,改变传统方法并提升公司的招聘流程。传统的招聘方法可能非常耗时,通常需要数周时间才能筛选所有申请。这个过程对于负责审查大量简历的招聘人员来说可能令人生畏。人工智能通过快速筛选大量申请、确定最合适的候选人并提供其资格的简明概述来简化这一过程。这不仅节省了招聘人员的时间,还使他们能够专注于改善候选人体验并吸引顶尖人才。人工智能全天候运行,确保招聘流程即使在招聘人员不在岗时也能保持活跃和有效。此外,人工智能可以帮助减轻偏见,如果使用得当,它可以通过关注相关技能和经验而不是个人偏见来促进更公平的招聘决策。本文探讨了人工智能在减轻招聘偏见方面的多方面作用,人工智能算法使用客观数据并设定标准来减少初步筛选期间的无意识偏见。这种方法有助于确保求职者根据资历和优点而不是个人特征进行评估。
哲学家 David Danks 和 Alex London 在讨论算法偏见和自主系统时将偏见定义为对标准的偏差 [14]。偏见可以说是两个组成部分的函数——标准和对标准偏差的衡量。因此,任何自主系统产生的结果与其预期目的(即系统标准)明显不同的情况都属于偏见 [14]。虽然偏见有很多种,但我们感兴趣的是那些通过放大种族、性别和性取向等类别的现有社会不平等对社会产生负面影响的偏见类型。我们将人工智能中的这些偏见称为社会偏见。许多围绕人工智能使用的问题已经浮出水面,包括人工智能的伦理、人工智能和机器学习中的偏见以及政策和法规 [15、16、17]。虽然每个主题都需要深入分析,但我们的重点是人工智能和机器学习系统中表现出的社会偏见。
全球卫生危机为人工智能 (AI) 解决方案的开发带来了前所未有的机遇。本文旨在通过实施以人为本的 AI 来帮助组织中的决策者,从而解决人工智能中的部分偏见。它依赖于两个设计科学研究 (DSR) 项目的结果:SCHOPPER 和 VRAILEXIA。这两个设计项目通过两个互补的阶段将以人为本的 AI 方法付诸实践:1) 第一个阶段安装了以人为本的知情设计流程,2) 第二个阶段实现了聚合 AI 和人类的使用架构。所提出的框架具有许多优势,例如允许将人类知识整合到 AI 的设计和训练中,为人类提供对其预测的可理解解释,并推动增强智能的出现,可以将算法转变为对人类决策错误的强大平衡,将人类转变为对 AI 偏见的平衡。
决策系统的自动化导致了人工智能 (AI) 使用中的隐藏偏见。因此,解释这些决策和确定责任已成为一项挑战。因此,出现了一个新的算法公平性研究领域。在这个领域,检测偏见并减轻偏见对于确保公平和无歧视的决策至关重要。本文的贡献包括:(1) 对偏见进行分类,以及偏见与人工智能模型开发的不同阶段(包括数据生成阶段)的关系;(2) 修订公平性指标以审核数据和用它们训练的人工智能模型(在关注公平性时考虑不可知模型);(3) 对减轻人工智能模型开发不同阶段(预处理、训练和后处理)偏见的程序进行新的分类,并增加有助于生成更公平模型的横向行动。