我们目前的人事管理系统(与其他军种的管理系统一样)是在工业时代设计的,早于当今世界特有的一系列文化和技术发展。可以理解的是,该模型建立在一套不同的关于人力资本的基本假设之上,其中许多假设已不再有效。例如,当我们的工业模式诞生时,只有大约三分之一的女性在职场,而今天这一比例约为 60%。大学教育,甚至高中教育,都是为特权阶层准备的:1950 年,只有 34% 的美国人高中毕业,6% 的人完成大学学业,而今天这一比例约为 90% 和 33%。而且商业完全是模拟的;我们的人力模型是在个人电脑、手机和互联网出现之前的时代设计的,当时海军陆战队收到的是纸质订单和纸质薪水。
这些决策的结果不仅仅是专家或学者的关注点。在这个数据驱动的数字经济中,我们的朋友、邻居和家人每天都有这样的生活经历。许多人对这个世界感到无奈。其他人则不然。去年,学生们奋起反抗一种算法,这种算法偏向特权阶层,而弱势群体,即使较不富裕学校的学生成绩更好,他们也认识到,自动化决策直接关系到公平、正义和透明的基本概念。所以他们说,“去他妈的算法”,“结束这一切”。我们不仅看到了一场反对自动化决策的成功运动,还目睹了一场反对不公正结果的运动。
摘要 在数字数据成为知识、财富和权力生产中越来越重要的元素的时代,需要采取彻底的解决方案来确保数字数据不会仅仅用于增加特权阶层的权力和利润。正如本期特刊的投稿所示,还需要新的监管方法、机构和研究领域来确保数字数据的政治经济有助于人民和社会的正义和福祉。我们不仅需要分析当前形势的不足,还需要愿景和工具来建立新的机构:在这些机构中,人类的专业知识、经验和互动被视为与高科技精度同等重要;新的规范和政策手段确保数据使用的好处惠及整个社会,特别是边缘化和弱势群体;并且承认和谴责那些没有现实机会选择退出的人的身体、生活和实践的数据化,因为它是机器人的野蛮行为(Mick Chisnall)。
疫情期间,乔·克拉克丢掉了餐饮服务工作,于是申请了失业保险。5州政府的线上平台要求他上传某些文件来证明自己的身份。然而,该平台无法通过智能手机完全访问,而克拉克和三分之一的低收入人群都是通过智能手机上网的。此外,上传文件的说明令人困惑且技术性很强,系统经常被锁定。州政府机构缺少工作人员帮助他操作线上系统。特权阶层在设计这些平台时只考虑了像他们这样的用户,而低收入人群、老年人、非英语人士和没有数字素养的人则难以获得满足基本需求所需的福利。如果平台设计者在测试系统时听取了用户的意见,这些经济不公本来可以避免。
人工智能 (AI) 现在几乎存在于我们日常生活的方方面面。此外,虽然这种人工智能增强通常是有益的,或者在最坏的情况下也不会带来问题,但有些情况值得关注。在这项研究中,我们认为劳动力市场训练数据集导致的人工智能偏见会显著放大微小的不平等,这些不平等在以后的生活中表现为永久失去机会、社会地位和财富隔离。马太效应是造成这种现象的原因,只不过重点不是富人越来越富,而是穷人越来越穷。我们展示了对技能、能力和知识的期望频繁变化如何导致人工智能无法做出公正的招聘决定。具体来说,人工智能使用的训练数据集中的偏见会影响结果,导致弱势群体被忽视,而特权阶层经常被选中。这种简单的人工智能偏见通过强化马太效应加剧了社会不平等,而且它的速度比以前快得多。我们通过研究来自司法、安全、医疗保健、人力资源管理和教育等各个劳动领域的数据来评估这些威胁。
1.人工智能(AI)技术 - 基于机器的系统,能够针对一组给定的人类定义目标做出影响真实或虚拟环境的预测、建议或决策 1 - 将对劳动力市场、工人和工作场所产生重要影响。因此,工人和公司将需要应对重大的转变和调整。近年来,人工智能技术的开发和采用取得了快速进展,特别是在图像、文本和语音识别、计算机编程和预测分析领域。例如,这些发展引发了人们对大规模失业的担忧,这种担忧源于人工智能能够越来越多地自动化重复性和非重复性任务 2 ,以及它影响经济各个部门的潜力。与此同时,人工智能还将创造全新的任务和职业,并彻底改变其他任务和职业的性质:因此,一些任务可能变得更安全、更不单调,但其他任务可能存在非人性化甚至去技能化的风险。此外,不同工人和不同公司利用人工智能带来的好处的能力也可能引发劳动力市场的不平等:虽然这不是什么新鲜事,但适应技术较慢的工人可能被排除在外的风险可能会因人工智能的传播而加剧,因为“让算法驱动经济活动将进一步赋予特权阶层特权”(Schor,2018 年 [1] )。