摘要 近年来,人工智能 (AI) 系统在劳动力市场中的应用越来越广泛,许多雇主在人力资源 (HR) 管理方面依赖它们。然而,这种日益增长的使用被发现可能对延续偏见和歧视产生影响。BIAS 项目于 2022 年 11 月启动,预计将开发一种创新技术(以下简称“Debiaser”)来识别和减轻招聘过程中的偏见。为此,一个必不可少的步骤是基于跨学科和参与式方法,对劳动力市场中人工智能偏见和公平性的构成有细致的了解。以下是该项目设计和预期实施的初步概述,以及我们的项目旨在如何为现有的法律、人工智能、偏见和公平性文献做出贡献。
摘要 随着星系弱透镜的统计能力达到百分比级精度,需要大规模、逼真且稳健的模拟来校准观测系统,特别是考虑到随着勘测深度的增加,物体混合的重要性日益增加。为了捕捉剪切和光度红移校准中混合的耦合效应,我们定义了透镜的有效红移分布 nγ(z),并描述了如何使用图像模拟来估算它。我们使用一套广泛的定制图像模拟来表征应用于暗能量调查 (DES) 第 3 年数据集的剪切估计管道的性能。我们描述了多波段、多时期的模拟,并通过与真实 DES 数据的比较证明了它们的高水平的真实感。我们通过在我们的表面模拟上运行变体来分离产生剪切校准偏差的效应,并发现与混合相关的效应是平均乘法偏差的主要贡献,约为 -2%。通过生成随红移变化的输入剪切信号模拟,我们校准了有效红移分布估计中的偏差,并证明了这种方法在混合存在时的重要性。我们提供经过校正的有效红移分布,其中包含统计和系统不确定性,可用于 DES 第三年弱透镜分析。
学生,SRCC摘要本研究论文研究了专门锚定的行为偏见和诱饵效应在塑造在线购物决策中的作用,尤其是在折扣和量身定制的产品建议的背景下。通过了解这些偏见如何影响消费者的选择,在线零售商可以优化其营销策略,以提高用户参与度并提高转化率。该研究提供了可行的见解,了解这些偏见的战略使用如何提高营销效率,同时还解决了维持消费者信任和满意度所必需的道德考虑因素。过度使用行为偏见会导致操纵性实践,并且零售商必须确保其营销工作中的透明度和公平性。此外,研究还提出了未来研究的途径,重点是探索在特定的人口统计或区域环境中的这些偏见,以更好地了解它们在不同人群中的变化。总体而言,这项研究提供了对在线零售环境中使用行为策略的潜在利益和道德意义的宝贵见解。关键字行为偏见,锚定,诱饵效应,在线零售,营销策略,消费者行为,道德营销,用户参与,未来的研究,营销有效性。1。简介技术的无情行进将零售景观转变为从利基活动转变为全球贸易中的主导力量的在线购物。在线购物环境是一个精心构建的生态系统,旨在最大程度地提高参与度和最终的销售。这种深刻的转变不仅改变了我们购买商品和服务的方式,而且还引入了一个新颖的舞台,以实现认知偏见和决策过程的相互作用。尽管电子商务的便利性和可访问性具有不可否认的优势,但他们同时将消费者暴露于无数微妙的心理操作中,这些操纵可能会对他们的选择产生重大影响。本文深入研究了在线购物中行为偏见的迷人领域,特别研究了折扣和建议,在线零售的两个无处不在的特征,塑造消费者行为以及通常会导致偏离理性决策。与物理商店不同,感官体验和有形的互动起着作用,在线领域在很大程度上依赖于视觉提示,有说服力的语言和算法的轻笑来指导消费者。折扣,经常以时间敏感的报价或降低百分比呈现,触发强大的心理反应,通常对价值和需求的理性考虑。同样,建议,无论平台明确提供还是通过算法
隐含的假设是,一个人(助手)是失败的根源,无论是由于某些固有特性还是由于他缺乏努力。贝塞尔摆脱了这一假设,并通过实证研究了天文观测中的个体差异。他发现,根据当时的方法,观察者之间存在很大差异。当时进行观察的技术需要结合听觉和视觉判断。这些判断是由当时的工具、摆钟和望远镜细线根据任务要求形成的。解雇金布鲁克并没有改变任务的困难之处,没有消除个体差异,也没有使任务不那么容易受到不精确因素的影响。进步的基础是寻找更好的天文观测方法、重新设计支持天文学家的工具以及重新设计任务以改变对人类判断的要求。
许多决定基于关于不确定事件的可能性的信念,例如电子的结果,被告的罪恶感或美元的未来价值。这些信念通常在诸如“我认为。。。,”“机会。。。,“”不太可能。。。,“等等。有时,关注事件的信念以数值形式表示为赔率或主观概率。是什么决定了这种情况?人们如何评估不确定事件的概率或不确定数量的价值?本文表明,人们依靠有限数量的启发式原则,这些原则降低了诉讼概率的复杂任务,并将其预测为简单的判断操作。通常,这些启发式方法非常有用,但有时会导致严重而系统的错误。
人类大脑已经进化到能够解决在多种环境中遇到的问题。在解决这些挑战时,它会形成关于世界多维信息的心理模拟。这些过程会产生与环境相关的行为。大脑作为过度参数化的建模器官,是产生复杂世界中行为的进化解决方案。生物最基本的特征之一是它们计算从外部和内部环境中接收的信息的价值。通过这种计算,生物可以在每种环境中以最佳方式行事。大多数其他生物几乎只计算生物学价值(例如如何获取食物),而人类作为一种文化生物,则从一个人的活动角度计算意义。计算意义是指人类大脑的过程,借助这个过程,个人试图使自己理解相应的情况,以了解如何以最佳方式行事。本文通过探索计算意义所开辟的不同可能性,并深入了解更广泛的视角,挑战了行为经济学的偏见中心方法。我们专注于确认偏见和框架效应作为认知偏见的行为经济学例子。我们得出结论,从大脑的计算意义的角度来看,这些偏见的使用是人类大脑优化设计的计算系统不可或缺的特性。从这个角度来看,认知偏见在某些情况下可能是合理的。以偏见为中心的方法依赖于仅包含少数解释变量的小规模可解释模型,而计算意义的观点则强调行为模型,这些模型允许多个变量。人们习惯于在多维和多变的环境中工作。人类大脑在这样的环境中处于最佳状态,科学研究应该越来越多地在模拟真实环境的情况下进行。通过使用自然刺激(例如视频和虚拟现实),我们可以为研究目的创建更逼真、更逼真的环境,并使用机器学习算法分析结果数据。通过这种方式,我们可以更好地解释、理解和预测人类在不同情况下的行为和选择。
来源:Nicol Turner Lee、Paul Resnick 和 Genie Barton,2019 年 5 月 22 日。算法偏见检测和缓解:减少伤害的最佳实践和政策。布鲁金斯学会,技术创新中心,算法偏见检测和缓解:减少消费者伤害的最佳实践和政策 | 布鲁金斯学会。
学者们为了解性别平等、其决定因素、其对女性和社会的影响以及促进女性平等的适当行动和政策付出了巨大努力。研究涵盖了许多主题,从女性教育和人力资本(Deressa 等人,2009 年;Dumais,2002 年)及其在社会中的作用(例如 Kamin & Vezovnik,2017 年;Kang 等人,2020 年),到她们在公司高级职位中的任命(例如 Smith & Parrotta,2018 年;Smith 等人,2013 年)和绩效影响(例如 Adams & Ferreira,2009 年;Campbell & Mínguez-Vera,2008 年)。尽管进行了一些尝试,但现有的文献综述对这些问题的看法仍然狭隘,仅限于特定主题,例如女学生在 STEM 领域的存在(Yazilitas 等人,2013 年)、教育性别不平等(Minasyan 等人,2019 年)、性别工资差距(Bishu 和 Alkadry,2017 年)、玻璃天花板效应(Jackson 和 O'Callaghan,2009 年)、领导力(Bark 等人,2014 年)、创业精神(Prashar 等人,2018 年)、女性在董事会中的存在(Kirsch,2018 年;Terjesen 等人,2009 年)、多元化管理(Köllen,2019 年)、广告中的性别刻板印象(Grau 和 Zotos,2016 年)或特定职业(Ahuja,2002 年)。现有文献还强调,性别问题及其经济和社会影响是一个复杂的话题,涉及大量可能的前因和结果(Cuberes & Teignier,2014 年)。事实上,从协同的角度看,性别平等行动与其他可持续发展目标(例如可持续发展目标 8,见 Rai 等人,2019 年)协同实施时最为有效(Asadikia 等人,2020 年)。此外,许多文献(例如商业、经济学、发展研究、社会学和心理学)都为实现性别平等贡献了独特的观点。由于现有研究通常涉及具体而狭隘的方面,因此对于不同的问题、情况和解决方案在加剧或减轻性别不平等或其影响方面可能存在哪些关联尚不明确。
生成式人工智能 (AI) 因其生成文本、图像和其他形式内容的出色能力而备受关注。然而,生成式人工智能系统的一个固有且日益令人担忧的问题是偏见。这些人工智能模型往往表现出以英国为中心的偏见,往往忽视多样性的重要性。这可以归因于它们在来自互联网的大量数据集上进行训练,这些数据集不可避免地继承了这些数据源中存在的偏见。使用这些数据集会导致人工智能生成的内容反映和延续现有的偏见,涵盖性别、种族和文化刻板印象等各个方面。解决生成式人工智能中的偏见是一项复杂的挑战,需要付出巨大的努力。为了解决这个问题,我们提出了一种构建具有社会倾向的中等规模数据集的方法。这些数据集可用于纠正数据集中现有的不平衡或训练模型以生成具有社会包容性的材料。此外,我们还介绍了基于这些社会倾向数据集训练我们的模型所得出的初步结论。
本文讨论了人工智能(“AI”)在司法系统中的使用,特别是其在影响司法判决的预测中的应用,以及人工智能偏见引发的法律和道德问题。首先,本文将探讨人工智能在这一领域可以发挥的各种作用,特别强调人工智能在风险评估和累犯预测中的作用。这涉及分析与犯罪和被告相关的数据以生成预测。这一领域的一个重大问题是偏见。虽然人们早已认识到刑事司法中的偏见是一个关键问题,但人们乐观地认为人工智能可以减轻这些偏见。然而,情况可能并非如此。风险评估人工智能有潜力提高量刑准确性并减少人为错误和偏见。