。cc-by-nc-nd 4.0国际许可证(未经同行评审证明)获得的是作者/资助者,他授予Biorxiv授予Biorxiv的许可,以永久显示预印本。这是该版本的版权持有人,该版本发布于2025年2月15日。 https://doi.org/10.1101/2025.02.12.12.637580 doi:Biorxiv Preprint
我们研究了初始筛选顺序(ISO)在候选日期筛查中的作用。ISO是指筛选器在选择𝑘候选时搜索候选池的顺序。今天,ISO通常是信息访问系统的产物,例如在线平台或数据库查询。ISO在文献中很大程度上被忽略了,尽管它对所选候选者的最佳性和公平性的影响,尤其是在人类筛选人员下。我们定义了两个问题公式,描述了筛选器的搜索行为给定的ISO:最好的𝑘,其中它选择了顶部𝑘候选者;和好𝑘,在其中选择了第一个好成绩的候选者。为了研究ISO的影响,我们引入了类似人类的筛选器,并将其与其算法对应物进行比较,在该算法中,人类样的筛选器会随着时间的流逝而不一致。我们的分析尤其表明,在类似人类的筛查者解决方面的问题下,ISO尽管达到了群体的公平性,但仍阻碍了个人的公平性,并阻碍了选定的候选者的最佳性。这是由于位置偏见所致,在该位置偏见中,候选人的评估是由其在ISO中的位置所影响的。我们报告了大量的模拟实验,以探索两个筛选器的最佳参数和良好问题的参数。我们的仿真框架足够灵活,可以说明多个候选筛选任务,这是运行现实世界过程的替代方法。
描述公平性估计的交叉性问题开发了必不可少的方法来指导搜索公平度指标以基于假设测试的指标来探讨探索基本上不同的方法:公平性作为足够的方法(不是平等),核算不确定性(非点估计)是否充分考虑了估计公平性的统计不确定性吗?
摘要 根据人力资源研究所最近的一项调查,随着人工智能(AI)在工作场所的存在越来越普遍,人力资源专业人士担心招聘算法的使用会导致招聘过程的“非人性化”。本文的主要目标有三个:(i)引起人们对这个被忽视的问题的关注,(ii)阐明这种对非人性的担忧究竟意味着什么,以及(iii)概述为什么非人性化的招聘过程在道德上是可疑的。在区分了“非人性化”一词在此背景下的使用(即消除人类存在)与其在非人性化研究跨学科领域中的更常见含义(即将其他人视为非人类)之后,我们认为,使用招聘算法可能会对雇员与雇主的关系产生负面影响。我们认为,有充分的独立理由接受实质性的雇员与雇主关系以及申请人与雇主关系,这两者都符合利益相关者的公司义务理论。我们进一步认为,由于人类招聘人员的价值观与招聘算法中嵌入的价值观之间的差异,非人性化的招聘流程可能会对这些关系产生负面影响。借鉴 Nguyen(收录于:Lackey,《应用认识论》,牛津大学出版社,2021 年)对 Twitter 如何“游戏化沟通”的批评,我们认为用算法取代人类招聘人员会将人为价值观引入招聘流程。最后,我们简要考虑了一些可能减轻招聘算法带来的问题的方法,以及可能需要做出一些艰难的权衡。
mihnea.panait08@gmail.com 摘要:当今使用的大多数电子产品或多或少都具有人工智能,从而减少或消除了某些任务对人类参与的需要。许多人都试图回答这个问题:什么是人工智能?为该术语找到定义的困难(主要)有两个方面:首先,人们并不真正了解自然智能是什么;其次,那些试图制定定义的人被计算机科学领域的成就所困扰——远远不足以证明如此夸张的名称的合理性。尽管人工智能(AI)作为一门学科出现已有半个多世纪,但在过去几年中却取得了前所未有的发展。计算机计算能力的提升和海量数据的积累使得自动学习取得了越来越快的进步,并决定了其渗透到从经济学和医学到商业和日常生活等不同领域。关键词:人工智能,灵感,问题,传统,人类参与 JEL 分类:O31,O33,O36,Z13 简介 智力是学习、理解和做出合理判断或意见的能力。同时,它也是获取和应用知识和技能的能力。智力可以帮助您解决问题,理解复杂概念,适应新情况以及从经验中学习。这个概念很复杂,仍然是心理学和认知科学争论的主题。(AI)用于描述机器对人类智能的模拟,机器被编程为像人类一样思考和学习。借助可以处理和分析大量数据的算法和计算机程序,人工智能系统能够执行通常需要人类智能的任务:视觉感知,语音识别,决策和语言翻译。文本。然而,与人类智能不同,AI系统没有意识
练习 3 考虑讲座中讨论的定向技术变革模型,并回想一下,在基线模型中,两个要素的供应是外生的,我们关注相对供应对要素价格的影响。在本练习中,我们研究相对供应和技术的联合决定。让我们关注一个模型,其中包含两个对应于熟练和非熟练劳动力的因素。假设每个时期都会出生一系列非熟练代理,并且每个代理都面临等于 的死亡率,因此人口数量恒定为 1 。每个代理在出生时都会选择是否接受教育以成为熟练工人。对于代理 x,需要 K x 个时期才能熟练掌握,在此期间,他没有劳动收入。K x 的分布由分布函数 ( K ) 给出,这是该经济体中异质性的唯一来源。其余设置与文本中相同。假设 (K) 没有质点。将 BGP 定义为 H=L 且技能溢价保持不变的情况。
作者和贡献者 Chara Bakalis,牛津布鲁克斯大学法学院 Nigel Crook,牛津布鲁克斯大学道德人工智能研究所 Paul Jackson,牛津布鲁克斯大学牛津布鲁克斯商学院 Kevin Maynard,牛津布鲁克斯大学道德人工智能研究所 Arijit Mitra,牛津布鲁克斯大学道德人工智能研究所 Selin Nugent,牛津布鲁克斯大学道德人工智能研究所 Jintao Long,牛津布鲁克斯大学道德人工智能研究所 Susan Scott-Parker,商业残疾国际组织 James Partridge,国际面部平等组织 Rebecca Raper,牛津布鲁克斯大学道德人工智能研究所 Alex Shepherd,牛津布鲁克斯大学道德人工智能研究所 2020 年夏季 本文旨在成为一份指南和动态文件,将随着读者和相关利益相关者的意见而不断发展和改进。欢迎并鼓励您提供反馈。请通过 moralAI@brookes.ac.uk 与我们分享您的反馈。引用:Nugent, S., Jackson, P., Scott-Parker, S., Partridge, J., Raper, R., Shepherd, A., Bakalis, C., Mitra, A., Long, J., Maynard, K., 和 Crook, N. (2020)。招聘人工智能存在残疾问题:雇主应提出这些问题以确保招聘公平性。伦理人工智能研究所 本作品根据知识共享署名许可 4.0 条款获得许可
面临高风险并在纯数字领域运营的组织(如计算机安全和许多金融服务)必须满足两个相互矛盾的目标:它们需要大规模快速地识别数字威胁,同时还要避免自动化处理导致的错误。对高可靠性组织的研究发现,要同时实现这些目标面临多重挑战,因为自动化通常会使组织的运营“失去意识”,无法从容应对高风险领域不断变化的复杂情况。在数字运营中,一个特殊的挑战来自“框架问题”,即算法无法适应其开发人员最初的认知框架中未确定的环境。在一家计算机安全公司 (F-Secure) 内进行了一项探索性、理论生成案例研究,以研究在数字领域行动的组织如何通过缓解框架问题来实现高可靠性。本文研究了运营的认知和实用特征的数字化组织,以及这些特征为应对框架问题而做出的安排。集体正念被认为是在这样的社会技术环境中出现的,通过精心分层的系统组合(人类)正念和(数字)无意识操作,而组织的核心操作仍然是数字化和算法化的。研究结果指出了迄今为止与数字组织相关的未探索的可靠性挑战,以及克服和/或缓解这些挑战的几种相关方法。1
高层政策声明强调了制定值得信赖、合乎道德和负责任的人工智能规范和法规的愿望。美国、英国、中国和日本等国都表示有兴趣参与国际合作,“通过国内和国际合作,促进对负责任的人工智能设计、开发、部署和使用的共同理解”。1 联合国教育、科学及文化组织 (UNESCO)、欧盟、经济合作与发展组织 (OECD) 和二十国集团等多边组织也发布了指导文件。2 这些声明令人鼓舞,可能会激发行动,但在制定具体流程、框架、标准或技术解决方案之前,开发人员和用户可能无法实现这些目标。