决策算法在社会中的存在感如今正在迅速增加,同时人们也开始担心其透明度以及这些算法可能成为新的歧视来源。事实上,许多相关的自动化系统已被证明会根据敏感信息做出决策或歧视某些社会群体(例如,某些用于人员识别的生物特征识别系统)。为了研究当前基于异构信息源的多模态算法如何受到数据中的敏感元素和内部偏见的影响,我们提出了一个虚构的自动招聘测试平台:FairCVtest。我们使用一组有意识地以性别和种族偏见进行评分的多模态合成档案来训练自动招聘算法。FairCVtest 展示了此类招聘工具背后的人工智能(AI)从非结构化数据中提取敏感信息并以不良(不公平)的方式将其与数据偏见结合起来的能力。最后,我们列出了最近开发能够从深度学习架构的决策过程中删除敏感信息的技术的列表。我们使用其中一种算法(SensitiveNets)来实验歧视感知学习,以消除我们多模态 AI 框架中的敏感信息。我们的方法和结果展示了如何生成更公平的基于 AI 的工具,特别是更公平的自动招聘系统。
摘要算法偏见是教育环境中机器学习模型中的主要问题。但是,它尚未在亚洲学习环境中进行彻底研究,并且只有有限的工作才考虑了基于区域(亚国家)背景的算法偏见。作为解决这一差距的一步,本文研究了菲律宾一所大型大学的5,986名学生的人口,并根据学生的区域背景调查了算法偏见。大学在广泛领域的在线课程中使用了画布学习管理系统(LMS)。在三个学期的典范上,我们收集了4870万个学生在画布中活动的日志记录。我们使用这些日志来训练从LMS活动中预测学生成绩的二进制分类模型。表现最佳的模型达到0.75,加权F1得分为0.79。随后,我们根据学生区域检查了偏见的数据。使用三个指标进行评估:AUC,加权F1得分和MADD在所有人口组中均显示出一致的结果。因此,在年级预测中对特定学生群体没有观察到不公平。
4. 汇总偏差:当数据集来自整个人口时,可能会对个人或小群体得出错误的结论。这种偏差最常见的形式是辛普森悖论(Blyth,1972),当只考虑整个人口的汇总数据时,小群体数据中观察到的模式就会消失。最著名的例子来自 1973 年加州大学伯克利分校的录取(Bickel 等人,1975)。根据汇总数据,女性申请者被拒绝的次数似乎明显多于男性。然而,对部门级数据的分析显示,大多数部门男性的拒绝率更高。汇总数据未能揭示这一点,因为女性申请总体录取率低的部门的比例高于申请录取率高的部门的比例。
清洁和肮脏的能量与技术变革之间的替代弹性是讨论当今最具挑战性的问题之一,即气候变化之一。尽管其重要性,但很少有研究从经验上估算这些关键参数。在本文中,我估计了从微数据中的清洁和肮脏能量之间取代的弹性,并与技术参数共同反映了能量骨料内技术变化的方向。发现替代弹性范围为2至3的弹性。在数据中观察到的很大的肮脏能量偏见的技术变化验证了指导技术变革的框架,鉴于相对能源价格的历史运动和统一上方替代的估计弹性。但是,我还发现了暗示性的证据,表明近年来,随着相对能源价格的变化和清洁能源的补贴,清洁能源增长的技术的增长速度快于肮脏的能源增强技术。
* 我们感谢 Fabian Trottner 的深入讨论。我们还感谢 Pol Antr`as、David Autor、Costas Arkolakis、Gideon Bornstein、Laura Castillo-Martinez、Jonathan Dingel、Pierre- Olivier Gourinchas、Gordon Hanson、J. Bradford Jensen、Tom Kemeny、Chris Moser、Michael Peters、Esteban Rossi-Hansberg 和 Steve Redding 的深刻评论。本文表达的任何观点均为作者观点,不代表美国人口普查局的观点。人口普查局的披露审查委员会和披露避免官员已审查此信息产品是否存在未经授权披露机密信息的情况,并已批准了此新闻稿中采用的披露避免做法。本研究由联邦统计研究数据中心根据 FSRDC 项目编号 2193(CBDRB-P2193-R8942、R9405、R9629 和 R10013)进行。Eckert 和 Walsh 感谢普林斯顿大学国际经济系完成本研究的部分工作。本文的当前版本取代了“熟练可扩展服务:经济增长中的新城市偏好”。† 加州大学圣地亚哥分校;fpe@ucsd.edu ‡ 乔治城大学;sharat.ganapati@georgetown.edu § 哥伦比亚大学;caw2226@columbia.edu
另请参阅:可穿戴传感器在 SARS-CoV-2 感染检测中的表现:系统评价,Mitratza 和 Goodale 等人。《柳叶刀数字健康》
危机——与玛乔丽·凯利的一次图书谈话。”阿斯彭研究所经济机会计划。2023 年 9 月 12 日。
摘要 隐性性别偏见会给职场女性带来代价高昂且复杂的后果,许多女性报告称自己遭受了性别微侵犯,这导致她们被忽视或不尊重。我们呈现了一个在线桌面虚拟环境,从第一人称视角讲述了男性或女性自我形象的故事,他们要么经历积极要么消极的工作场景。消极场景包括许多来自性别微侵犯分类的例子。与拥有男性自我形象的参与者相比,与女性自我形象有过消极职场体验的参与者的隐性性别偏见水平显著降低。有证据表明,在消极条件下,女性自我形象表现出同理心和观点采择。无论自我形象的性别如何,积极的职场场景体验都没有表明隐性性别偏见显著减少。我们讨论了这些发现的含义,并就减少隐性偏见提出了虚拟环境技术和场景的建议。