Leesa Soulodre 是 R3i Ventures 和 R3i Capital 的普通合伙人,R3i Capital 是一家专注于创新咨询和 AI 的风险投资基金,业务遍及美国、欧洲和亚太地区。Leesa 已为 19 个行业的 400 多家跨国公司和众多初创企业提供服务。她为全球最大的公司实现了 50 多个技术驱动的全球声誉项目,并为 200 多家金融机构提供了数据驱动的负责任投资战略。她是 SMU Cox 商学院的创业和复杂问题解决临床教授,也是 IE 商学院、卢森堡商学院和新加坡管理大学的兼职教授。
各种人工智能 (AI) 系统做出的决策极大地影响着我们的日常生活。随着人工智能系统的使用越来越广泛,了解它们是否公平、识别其决策中的潜在偏见以及创建一个标准化框架来确定其公平性变得至关重要。在本文中,我们提出了一种新颖的公平性评分来衡量数据驱动的人工智能系统的公平性,并提出了为此类系统颁发公平性认证的标准操作程序 (SOP)。公平性评分和审计流程标准化将确保质量、减少歧义、实现比较并提高人工智能系统的可信度。它还将提供一个框架来实施公平性概念并促进此类系统的商业部署。此外,由指定的第三方审计机构按照标准化流程颁发的公平性证书将增强组织对其打算部署的人工智能系统的信心。本文提出的偏见指数还揭示了数据集内各种受保护属性之间的比较偏差。为了证实所提出的框架,我们使用多个数据集在有偏见和无偏见的数据上迭代训练模型,并检查公平性分数和所提出的流程是否正确识别偏见并判断公平性。
虽然有人谈到“V 型”经济复苏,即一旦解除封锁,就业和增长就会迅速恢复,但这并不能保证一定会发生。经合组织表示,随着政府债务飙升、企业和消费者信心受到侵蚀,全球经济可能会在未来几年遭受损失。1 房地产价格大幅下跌,虽然对潜在买家来说可能是个好消息,但可能会让数十万人陷入负资产。储蓄者和投资者面临重大损失,这可能会对有固定缴款计划的工人未来的退休收入造成严重后果。那些已经退休但依赖股息和储蓄收入的人也可能受到当前危机的严重打击。
尽管我们对机器学习中的公平性的理解已经大大发展,但我们对扩展学习(RL)公平性的理解仍然很新生。大多数诉讼都在一声分类任务中公平。但是,现实世界中支持RL的系统(例如,自动驾驶汽车)的复杂性要复杂得多,因为代理在长时间内在动态环境中运行。为了确保对这些系统的负责任开发和部署,我们必须更好地了解RL中的公平性。在此过程中,我们调查了文献,以提供RL中公平的前沿的最新快照。我们首先要重新查看RL中可能出现公平考虑的地方,然后讨论到目前为止提出的RL公平性的各种定义。我们继续强调了用于在单一和多代理RL系统中实施公平性的方法研究人员,然后展示了已研究了公平RL的不同应用域。最后,我们批判性地研究了文献中的差距,例如在RLHF背景下的公平性,在将来的工作中仍然需要解决这些差距,以便在现实世界中真正实现公平RL。
雇主在整个招聘管道中采用算法招聘技术。算法公平性尤其适用于该领域,因为其高赌注和结构不平等。不幸的是,这个空间中的大多数工作都提供了部分治疗方法,通常受到两个竞争叙事的约束,乐观地着重于替换有偏见的招聘者决策或悲观地指出歧视的自动化。比目前尚未回答的低技术替代方案,算法的类型,更重要的是,哪种类型的算法招聘对社会的偏见和对社会的好处更大,这损害了可信赖性。这项多学科调查迎合了从业人员和研究人员,并具有平衡且无关紧要的覆盖范围,对系统,偏见,措施,缓解策略,数据集以及算法招聘和公平性的法律方面。我们的工作通过强调当前的机会和局限性来支持对该技术的上下文理解和治理,为将来的工作提供建议,以确保所有利益相关者的共同利益。
●在奥地利:风险分数将最近的失业者分为(i)在接下来六个月中有良好前景的人; (ii)未来两年前景不良的人; (iii)其他所有人。支持措施针对第三组。仅提供对第一组和第二组的支持有限的支持(Allhutter等,2020)。
1. 人工智能高级专家组 (2019)。可信人工智能的道德准则。布鲁塞尔:欧盟委员会。2. 欧洲银行管理局 (2020)。欧洲银行管理局大数据和人工智能报告。巴黎。3. Joost van der Burgt (2019)。金融领域使用人工智能的一般原则。阿姆斯特丹:荷兰银行。4. ACPR (2018)。人工智能:金融行业面临的挑战。巴黎:法国审慎监管局。5. FSB (2017)。金融服务中的人工智能和机器学习:市场发展和金融稳定影响。巴塞尔:金融稳定委员会。6. Tractica (2019)。报告:人工智能市场预测。网址:https://tractica.omdia.com/research/artificial-intelligence-market-forecasts/ 7. DnB 和 AFM (2019)。保险业的人工智能:一项探索性研究。8. WEF(2018 年)。金融服务的新物理学:了解人工智能如何改变金融生态系统。世界经济论坛。9. Mutanen, T.、Nousiainen, S. 和 Ahola, J.(2010 年)。客户流失预测 - 零售银行案例研究。10. Feloni, R.(2017 年)。消费品巨头联合利华一直在使用智力游戏和人工智能招聘员工
越来越多的金融服务 (FS) 公司正在采用人工智能 (AI) 驱动的解决方案来提高运营效率、获得战略见解并提高客户参与度。然而,采用率一直很低,部分原因是人们担心其复杂性和自学能力,这使得可审计性在高度监管的行业中成为一项挑战。关于金融服务公司如何实施特定于 AI 驱动解决方案的治理和控制的文献有限。AI 审计不能在真空中进行;风险不仅限于算法本身,而是渗透到整个组织。以不公平风险为例,本文将介绍总体治理策略和控制框架,以应对减轻 AI 带来的风险的实际挑战。凭借监管影响和行业用例,该框架将使领导者能够满怀信心地进行创新。
在定义和选择人群时会出现代表性偏差 - 例如,当数据集中缺乏地理或社会多样性时。在数据收集阶段可能会出现某些群体代表性不足的情况,此时采样方法只能覆盖到一小部分人群。例如,两个地点的数据收集方式可能不同 - 例如,银行历来向居住在相对富裕地区的家庭提供信贷。如果受保护的属性(例如种族)随位置而变化,则会引起偏差。欧盟委员会考虑的训练数据集的关键要求之一是严格解决所需的代表性 - 而不是历史性。
• 本次讲座超越了计算机视觉的范畴 • 我不是这方面的专家 • 但我认为这真的很重要 • 我仍在研究在这个领域应该关注的事情 • 我不属于任何边缘群体 • 我们只能在一次讲座中触及表面 • 通常问题多于解决方案