人工智能在职场上的潜在用途和好处数不胜数。支持者认为,人工智能加快了招聘流程,消除了人为的偏见和主观性。4 如果人工智能设计精良、部署得当,它可以帮助员工找到最有价值的工作,并为公司匹配最有价值、最有效率的员工。5 支持者进一步认为,人工智能系统比人类招聘人员更高效、更彻底。此外,人工智能还可以通过消除非法歧视,从而促进职场的多样性、机会平等、无障碍和包容性,丰富公司的价值观和文化。6 研究一直表明,用于就业决策的人工智能工具通常可以带来更大的招聘多样性、公正的晋升决策,并通过及早发现工作不满情绪来更好地留住员工。 7 外骨骼套装和机械臂等可穿戴技术已经能够减轻残疾的影响,从而拓宽残疾工人的就业机会 (2018 年 7 月 19 日,上午 6:00),https://www.chicagotribune.com/business/ct-biz-arti- ficial-intelligence-hiring-20180719-story.html(注意到广泛使用网络爬虫来分析大量数据以识别未积极求职的候选人)。 3 Keith E. Sonderling,机器人关心你的公民权利吗? , C HI. T RIB.,https://digitaledition.chicagotribune.com/infinity/arti- cle_share.aspx?guid=285d3467-3dbe-49b1-810e-014aefee1a3e(最后访问时间为 2022 年 9 月 1 日);另请参阅 Joe McKendrick,《过去 18 个月人工智能采用率飙升》,H ARV.B US.R EV.(2021 年 9 月 27 日),https://hbr.org/2021/09/ai-adoption-skyrocketed-over-the-last-18-months。4 参见 Elejalde-Ruiz,上文注 2(解释人工智能可以通过掩盖姓名和其他信息来减少或消除偏见)。5 Keith E. Sonderling,《人力分析如何防止算法偏见》,I NT'LA SS'N FOR H UM.R ES.INFO。 M GMT .,https://www.ihrim.org/2021/12/how-people-analytics-can-prevent-algorithmic-bias-by-commissioner-keith-e-sonder-ling/(上次访问时间为 2022 年 9 月 1 日)。6 参见 Kimberly A. Houser,《人工智能能否解决科技行业的多样性问题?减轻就业决策中的噪音和偏见》,22 S TAN. T ECH. L. R EV. 290, 351 (2019)。7 同上。
每位员工都有权在促进积极关系、没有骚扰和歧视的专业环境中工作。该政策是伯克希尔哈撒韦能源对多元化和包容性承诺的一部分,如多元化和包容性政策所述。为履行这一承诺,公司对骚扰和歧视采取零容忍政策。公司还禁止对举报骚扰或歧视善意投诉或参与与此类投诉有关的调查进行报复。公司的政策是确保平等的就业机会并实施就业实践,不考虑种族、肤色、宗教或宗教信仰、年龄、国籍、血统、公民身份(法律要求的除外)、性别(包括性别认同和表达)、性别(包括怀孕)、性取向、基因信息、身体或精神残疾、1 退伍军人或军人身份、家庭或父母身份、婚姻状况或任何其他受当地、州或美国联邦法律保护的类别(“受保护类别”或统称为“受保护类别”)。禁止因员工属于或隶属于任何受保护类别的成员而歧视或骚扰该员工。本政策旨在营造安全和相互尊重的工作场所,并定义适当的工作行为。根据政策,公司不会容忍任何个人以口头、身体或其他方式不合理地干扰他人的工作表现或创造恐吓、敌对或冒犯性的工作环境。任何违反本政策、进行骚扰、歧视或报复的员工都将受到纪律处分,直至终止雇佣关系。政策的广泛范围/尊重他人最终,每位员工都要对自己的行为负责。即使是在个人时间进行的骚扰、歧视或报复,如果在工作场所内造成混乱,对公司造成影响,或者损害公司在社会中的形象,那么在工作场所之外(包括在线和/或社交媒体)也不允许进行此类行为。
使用算法个性化价格不再是一种边缘现象,而是许多在线市场中主要的商业实践,在许多在线市场中,跟踪消费者每次点击都是行业标准。看似无关,几十年来,消费者保护法一直基于以下前提:消费者缺乏有意义的交易权力,无法就合同条款进行讨价还价。本文提出,根据消费者的行为,越来越多地使用算法来设定个性化价格,这为消费者提供了通过算法超过价格和收回市场能力来“讨价还价”的道路。为了支持这一点,本文介绍了在线实验室环境中进行的新型预注册,兼容的随机实验的结果,该实验测试了消费者是否以及如何在给出机会时用算法超过价格,以多个回合为参与者提供10美元的礼品卡,以10美元的价格购买Algorithm,以基于参与者的购买决定,这是一项基于Algorithm的价格,该赠品是基于参与的购买效果。这项研究进一步探讨了使用来自在线消费市场中通常部署的消费者和数据保护法的工具来调节算法定价的潜力:披露授权,防止数据收集的权利(“ cookies Laws”)(“ cookies Laws”)(“ cookies Laws”)以及防止数据保留的权利(“擦除法律”或“擦除法律”或“遗留在“遗忘”))。我们发现明确的证据表明,参与者在战略上避免了他们本来会诱发随后的回合降低价格的购买,以及一些证据表明,这种行为有时以避免有效购买的代价是出于避免有效购买的代价,而当提供的价格低于分配给礼品卡的价值参与者。We found that both these effects increased in magnitude and statistical significance in the presence of disclosure, as well as clear evidence that participants offered data protection rights used them strategically: preventing retention or collection of their data in rounds in which they purchased the gift card, so as to prevent a subsequent price increase, and allowing it in rounds in which they declined to purchase, so as to signal a low WTP and benefit from a price decrease in the next round.
此预印本的版权持有人(该版本发布于2023年5月16日。; https://doi.org/10.1101/2023.05.16.541046 doi:biorxiv Preprint
数据分析支持:内部数据收集和分析,Nielsen和Kantar,旨在建立市场理解和对战略计划,发展批判性思维并扩大分析能力的支持。以及KPIS并为Dream Waltz和Milka品牌建造仪表板。支持与领域的关系:与中央情报局其他领域以及工作团队建立关系,寻求了解其所在环境,流程和与每个配置文件进行交流/相关的最佳方法。产品发布支持:为Dream Waltz品牌开发新产品的支持,支持项目管理,沟通,与代理商,多功能团队和供应商联系。支持Waltz Dream社交网络,在制定和监视“精神可行性”增长和创新的“精神可行性”的制定和计划中为“内容”团队做出了贡献;支持内容批准,管理和分析结果;支持预算管理,负责NF,支出管理,输入和输出控制。
新兴奖学金表明,欧盟的法律歧视法律概念 - 以保护特征为由给予不同的待遇 - 可能适用于各种算法决策背景。这具有重要的含义:与间接歧视不同,直接歧视框架中通常没有“客观理由”阶段,这意味着直接歧视性算法的部署通常是非法的。在本文中,我们专注于在算法上下文中最有可能直接歧视的候选人,称为固有的直接歧视,其中代理与受保护的特征无疑地联系在一起。我们借鉴了计算机科学文献,暗示在算法背景下,“基于治疗的理由”需要从两个步骤中理解:代理能力和代理使用。只有在两个要素才能指出的情况下才能指出歧视是“基于”受保护的特征。我们分析了我们提议的代理能力和代理使用测试的法律条件。基于此分析,我们讨论了可以开发或应用以确定算法决策中固有直接歧视的技术方法和指标。
摘要 在本文中,我将研究人工智能 (AI) 和自动决策 (ADM) 的使用是否会加剧歧视问题,正如几位作者所论证的那样。为此,我首先参与了关于歧视的激烈哲学辩论,并提出了我自己对这一概念的定义。在此基础上,我随后回顾了一些关于使用 AI/ADM 和歧视的最新文献。我解释了我对歧视的解释如何有助于理解,鉴于歧视加剧的一般说法是没有根据的。最后,我认为使用 AI/ADM 实际上可以加剧歧视问题,但方式与大多数批评者所认为的不同:由于其认识论的不透明性,AI/ADM 有可能破坏我们的道德审议,而道德审议对于达成关于什么应该算作歧视的共同理解至关重要。结果发现,算法实际上可能有助于检测隐藏的歧视形式。
最近,Apple Card 的算法受到了公众的质疑,因为用户声称该算法助长了性别歧视。2019 年 11 月初,一位著名的网络开发人员在推特上表示,他的妻子获得的信用卡信用额度仅为 57 美元,仅为他获得的信用额度的一小部分。8 尽管他和妻子共同报税,住在共同财产州,而且妻子的信用评分更高,但情况仍然如此。9 这条帖子迅速走红,并得到了其他已婚夫妇的证实,其中包括苹果联合创始人史蒂夫·沃兹尼亚克。10 截至本文发表时,纽约金融服务部正在调查该信用卡的决策过程。针对这种情况,这位开发人员表示:“我认为没有一些想要歧视的恶人。但这并不重要。既然没有人能解释这个决定是如何做出的,你怎么知道机器学习算法没有问题呢?” 11
保险公司和雇主通常出于经济动机而歧视那些未来更有可能承担医疗费用的人。尽管如此,许多联邦和州法律仍试图限制这种基于健康的歧视。例子包括《怀孕歧视法案》(PDA)、《美国残疾人法案》(ADA)、《就业年龄歧视法案》(ADEA)和《遗传信息非歧视法案》(GINA)。但本文认为,当雇主或保险公司依靠机器学习人工智能(AI)来指导他们的决策时,这些法律无法可靠地防止基于健康的歧视。归根结底,这是因为机器学习人工智能本质上是结构化的,可以识别和依赖代理特征,这些特征可以直接预测它们被编程为最大化的任何“目标变量”。由于员工和被保险人的未来健康状况实际上直接预测了雇主和保险公司无数表面上中立的目标,因此机器学习人工智能往往会产生与基于健康相关因素的故意歧视类似的结果。尽管《平价医疗法案》(ACA)等法律可以通过禁止所有未经事先批准的歧视形式来避免这种结果,但这种方法并不广泛适用。让问题更加复杂的是,几乎所有开发“公平算法”的技术策略在涉及基于健康的代理歧视时都行不通,因为健康信息通常是私密的,因此不能用来纠正不必要的偏见。尽管如此,本文最后还是提出了一种新的策略来对抗人工智能基于健康的代理歧视:限制公司使用与健康相关因素有很强可能联系的目标变量来编程人工智能的能力。
方法和结果:数据来自Midus(美国中年),这是一项对美国成年人的前瞻性队列研究。基线数据是在2004年至2006年收集的,平均为8年的随访期。在基线时具有自我报告的高血压的工人被排除在外,产生了1246名参与者的样本量进行主要分析。使用经过验证的6个项目仪器评估工作场所犯罪。在接受9923.17人年的随访期间,有319名工人报告的高血压发作,高血压的发病率分别为25.90、30.84和39.33,在低,中级和高水平的工作场所歧视的参与者中,每1000人年分别为每1000名。COX比例危害回归分析表明,与暴露率低的工人相比,经历了高度接触工作场所歧视的工人的高血压危害更高(调整后危险比,1.54 [95%CI,1.11-2.13])。敏感性分析不包括基线高血压病例,基于血压加上降压药物的其他信息(n = 975)显示出稍强的关联。趋势分析显示暴露反应关联。