科罗拉多州能源办公室开展了这项电动汽车 (EV) 公平性研究,旨在了解阻碍社会经济或交通需求较大的地区获得电动交通及其好处的因素,并为科罗拉多州及其合作伙伴提供工具,以设计支持公平电气化的计划。这份电动汽车公平性研究报告以公平性为中心,介绍了支持交通电气化的一系列可用选项,并提供了可立即支持科罗拉多州实施这些选项的工具。在本报告中,“电动汽车公平性”一词广泛指支持公平使用电动交通及其好处的任何政策、战略、参与、援助或其他资源。本报告分为四个部分,重点关注不同的公平性问题。
随着用于医学图像分析的人工智能 (AI) 系统的发展呈指数级增长,医院和医疗中心已开始在临床实践中部署此类工具 1 。这些系统通常由一种称为深度学习 (DL) 的特定类型的机器学习 (ML) 技术提供支持。DL 方法通过采用具有不同抽象级别的多层处理来学习复杂的数据表示,这对于解决广泛的任务很有用。在医学图像计算 (MIC) 背景下,此类任务的示例包括病理分类、解剖分割、病变描绘、图像重建、合成、配准和超分辨率等 2 。虽然与在实验室条件下应用于不同 MIC 问题的 DL 方法相关的科学出版物数量呈指数级增长,但旨在评估医疗 AI 系统的临床试验最近才开始获得发展势头。事实上,根据美国放射学会的数据,迄今为止,美国食品药品监督管理局 (FDA) 批准的与放射学和其他成像领域相关的 AI 医疗产品不到 200 种 3 。最近,机器学习公平性研究界强调,机器学习系统可能会对某些亚群体产生偏见,即它们对不同亚群体表现出不同的表现,这些亚群体由年龄、种族/民族、性别、社会经济地位等受保护属性定义 4、5 。在医疗保健领域,算法对不同人群亚群体的潜在不平等行为甚至可能被认为违背了生物伦理学原则:正义、自主、仁慈和非男性原则 6 。在这种背景下,促进 MIC 的公平性变得至关重要。然而,这绝非易事:确保机器学习部署的公平性需要解决整个设计、开发和实施过程中的多个不同方面。虽然机器学习公平性对
本文总结并评估了在人工智能 (AI) 系统中追求公平性的各种方法、手段和技术。本文分析了这些措施的优点和缺点,并提出了定义、衡量和防止人工智能偏见的实用指南。特别是,本文告诫不要使用一些过于简单但常见的评估人工智能系统偏见的方法,并提供了更复杂、更有效的替代方案。本文还通过为高影响力人工智能系统的不同利益相关者提供通用语言,解决了该领域普遍存在的争议和困惑。本文描述了涉及人工智能公平性的各种权衡,并提供了平衡这些权衡的实用建议。本文提供了评估公平性目标的成本和收益的技术,并定义了人类判断在设定这些目标中的作用。本文为人工智能从业者、组织领导者和政策制定者提供了讨论和指导,并为技术含量更高的受众提供了各种其他材料的链接。提供了大量现实世界的例子,从实践角度阐明了概念、挑战和建议。1.简介 1.1 本文结构 本文分为五个部分。在简介中,我们使用一个假设的案例研究来探索人工智能公平的重要原则并定义本文的范围。以下两节深入讨论了人工智能公平的两个广泛概念:对个人的待遇与模型的结果。第四部分描述了实现人工智能公平所涉及的一些固有权衡和实际挑战。在最后一节,我们提供了克服这些挑战的实用指南。在
人工智能 (AI) 系统现在影响着人们生活各个方面的决策,从他们阅读的新闻文章到他们是否获得贷款。虽然使用人工智能可能会在做出这些重要决策时提高准确性和效率,但最近的新闻和研究报告表明,人工智能模型可能会表现出不公平的行为:从招聘模型中表现出的性别偏见,到累犯预测系统中的种族偏见。本论文通过考虑在创建人工智能系统的整个过程中所做的选择(即建模管道)如何影响公平行为,探索了理解和缓解人工智能公平问题的新方法。首先,我将展示如何通过考虑模型的端到端管道来扩展我们对不公平模型行为的理解。具体来说,我的工作通过展示建模流程某些部分(即学习规则)的不稳定性如何导致不公平,因为重要决策依赖于任意的建模选择,从而引入了人工智能系统稳定性与公平性之间的联系。其次,我将讨论如何考虑机器学习流程可以帮助我们扩展偏见缓解技术工具箱。在一个案例研究中,研究税务审计实践中与收入相关的公平性,我将展示在人工智能创建流程中进行的干预措施(即使这些干预措施表面上与公平性无关)不仅可以有效地提高公平性,而且通常可以减少预测效用和公平性之间的权衡。最后,我将概述人工智能建模流程为从业者在创建模型时提供的灵活性带来的好处和危险,包括讨论这种灵活性的法律影响,我称之为模型多样性。
摘要:影响个人的人工智能辅助决策提出了关于人工智能透明度和公平性的关键问题。许多研究强调了人工智能辅助决策中透明度/解释和公平性之间的相互关系。因此,同时考虑它们对用户信任或感知公平性的影响有利于负责任地使用社会技术人工智能系统,但目前很少受到关注。在本文中,我们分别研究了人工智能解释和公平性在特定基于人工智能的决策场景中对人类-人工智能信任和感知公平性的影响。一项模拟人工智能辅助决策在两个健康保险和医疗决策场景中的用户研究提供了重要的见解。由于全球大流行及其限制,用户研究以在线调查的形式进行。从参与者的信任角度来看,公平性仅在公平性水平较低的情况下才会影响用户信任,而公平性水平较低会降低用户信任。然而,增加解释有助于用户增加对人工智能辅助决策的信任。从感知公平的角度来看,我们的研究发现,引入低水平的公平性会降低用户的公平性感知,而引入高水平的公平性会提高用户的公平性感知。解释的加入无疑会增加公平性感知。此外,我们发现应用场景会影响信任和公平性感知。结果表明,在人工智能应用中使用人工智能解释和公平性陈述是复杂的:我们不仅需要考虑引入的解释类型和公平性程度,还需要考虑人工智能辅助决策的使用场景。
教育技术越来越多地使用数据和预测模型为学生、教师和管理人员提供支持和分析见解(Baker & Inventado,2014;Luckin & Cukurova,2019)。认知导师等自适应系统根据对学生已掌握内容的预测,为学生提供不同的学习材料,从而帮助学生掌握内容(Pane 等人,2010)。自动评分系统根据对人类评分员给出的分数和评论的预测,对开放式评估提供即时反馈(Yan 等人,2020)。学生支持系统可以识别学习困难的学生,自动为他们提供帮助,或根据对哪些学生可能会退出学习平台、在即将到来的评估中获得低分或感到困惑、无聊和沮丧的预测,将他们标记给教师或管理员 (Hutt、Grafsgaard 等人,2019 年;Prenkaj 等人,2020 年)。一些教育技术使用数据驱动的预测来直接改变学习体验,例如跳过学生预计已经掌握的模块。这可以在有或没有明确通知学生的情况下发生,从而使系统的“智能”变得公开或隐藏。其他教育技术向学生、教师或管理员展示模型预测,以支持他们的解释和决策过程。此类预测的呈现格式因学习环境、目标受众和期望的反应而有很大差异;它可以采用专用仪表板的形式,让教师跟踪学生或让学生监控自己的进度,也可以采用嵌入学习活动中的指标来即时反馈,或者采用数字学习环境中的细微变化来影响学生的注意力和行为。随着使用教育大数据开发的预测模型的算法系统的日益普及,人工智能在 K-12、高等教育和继续教育中的影响力正在不断扩大。
国防部需要多样化的视角、经验和技能,以保持全球领先地位,遏制战争,保障国家安全。利用这种战略多样性并扩大渠道来吸引、留住和提拔国家最优秀的人才,是国防部能够智胜、智胜和战胜任何对手或威胁的唯一途径。2022 年国防战略强调,为了使国防部保持联合部队的全球军事优势并防止针对我们国土的袭击,我们必须通过最大限度地发展和结合我们的优势并投资于我们的人民来建立一支有韧性的部队。在整个部门推进多样性、公平性、包容性和可及性 (DEIA) 不只是勾选一个框;它是为了获得关键技能和经验,以建立未来几年保护我们国家所需的总部队。
Yap Jia Qing* 和 Ernest Lim** 摘要。需要清楚了解人工智能 (AI) 的使用风险及其应对方法,这需要适当且充分的企业披露。我们提出了一个人工智能公平性报告的法律框架,公司可以并且应该在遵守或解释的基础上遵守该框架。我们分析了人工智能模型不同方面产生的不公平根源以及机器学习系统性能的差异。我们评估了机器学习文献如何通过使用不同的公平性指标来解决不公平问题。然后,我们提出了一个细致入微且可行的人工智能公平性报告框架,包括:(a) 披露所有机器学习模型的使用情况;(b) 披露所使用的公平性指标及其随后的权衡;(c) 披露所使用的去偏见方法;(d) 发布数据集供公众检查或第三方审计。然后,我们将该报告框架应用于两个案例研究。关键词:人工智能、机器学习、公平、歧视、披露、报告、公司、法律和技术、股东、利益相关者、GDPR。
FinRegLab:研讨会——“人工智能与经济:为负责任和包容的人工智能规划道路”联合活动,邀请著名政策制定者参加,重点关注金融服务领域的负责任人工智能。华盛顿特区,2022 年 4 月 22 日——FinRegLab 将与美国商务部、美国国家标准与技术研究所 (NIST) 和斯坦福以人为本人工智能研究所 (HAI) 合作,于 2022 年 4 月 27 日举办一场研讨会,汇集政府、行业、民间社会和学术界的领导人,探讨人工智能和机器学习在不同经济部门部署带来的潜在机遇和挑战,特别关注金融服务和医疗保健。已确认的发言人包括商务部副部长 Don Graves;参议员 Joni Ernst;代理货币监理署署长 Michael Hsu;万事达卡执行副总裁兼首席数据官 JoAnn Stonier;富国银行执行副总裁兼模型风险主管 Agus Sudjianto、斯坦福大学商学院教授兼 HAI 副主任 Susan Athey 博士、布鲁金斯学会技术创新中心主任 Nicol Turner Lee 博士以及哈佛大学计算与社会研究中心博士后研究员 Manish Raghavan 博士。演讲者和小组成员将讨论研究、政策建议和新兴行业实践。FinRegLab 首席执行官兼主任 Melissa Koide 表示:“人工智能与新型数据相结合,为改善金融包容性和平等性提供了巨大的潜力。然而,也存在加剧偏见和排斥的巨大风险。认真、有针对性地研究消费者受到的影响对于制定正确的规则至关重要。” FinRegLab 还将于 4 月 28 日举办一场虚拟会议,详细介绍该组织和斯坦福大学商学院 Laura Blattner 教授和 Jann Spiess 教授就机器学习在信用承保中的应用开展的研究,特别关注机器学习模型对可解释性和公平性的潜在影响。这项研究对当前可用工具的性能和功能进行了实证评估,这些工具旨在帮助贷方开发、监控和管理机器学习承保模型。媒体成员如有兴趣亲临或以虚拟方式参加研讨会或寻求评论,请联系 Alex Bloomfield,邮箱地址为 alex.bloomfield@finreglab.org。有关研讨会的更多信息,包括所有演讲者和小组讨论,请访问此处的活动页面。
7 多元化管理实践应用指南 Word Doc 多元化管理实践应用指南 8 多元化管理实践幻灯片 PowerPoint 多元化管理实践幻灯片 9 多元化前提条件讨论指南 Word Doc 多元化前提条件讨论指南 10 多元化前提条件幻灯片 PowerPoint 多元化前提条件幻灯片 11 个人意识讨论指南 Word Doc 个人意识讨论指南 12 个人意识幻灯片 PowerPoint 个人意识幻灯片 13 多元化趋势促进指南 Word Doc 多元化趋势促进指南 14 多元化趋势幻灯片 PowerPoint 多元化趋势幻灯片 15 SkillBrief:引领多元化 PDF Doc Skillbrief:引领多元化