商业、社会和经济领域的学者必须注册以下课程:1. 学院公园学者座谈会 I:BSE CPBE 100 第 0101 节 M 5:00-6:15 1 学分 2. 创造性问题解决 BMGT 161 第 0101 节,或 MW 9:30-10:45 3 学分 第 0201 节 MW 11:00-12:15 注意:鼓励第一学期参加 ENGL101 的学生选择仅限学者的部分,指定为 ENGL101S。这些课程在剑桥社区中心举行,并提供与其他学者项目的同学一起完成课程的机会。需要更多信息吗?奥利弗·施莱克 (oschlake@umd.edu) – 301-405-0778 奥比奥玛·阿凯格韦 (oakaigwe@umd.edu) 301-405-0200 大卫·尤班克斯 (eubankd@umd.edu) – 301-314-1369
在印度,Aadhaar 系统为每个公民建立了一个逐步强制执行的唯一身份证号码,构成了世界上最大的生物识别身份系统,该系统对 Silvia Masiero 和 Soumyo Das 所称的多种形式的“数据不公正”负责,这是由于“反贫困计划的数据化”(Masiero & Das,2019)。据他们介绍,由于受益人的数据被强制纳入计划设计,这些数据集与权利的确定直接相关。换句话说,将“受益人群转换为机器可读数据”可以识别和分析用户,以分配(或不分配)权利。并非偶然,最具侵入性和惩罚性的系统针对的是穷人(Eubanks,2018)。一如既往,权力,在种族、阶级、性别、领土、残疾等所有交叉性中,在特定技术的部署方式和目标对象方面发挥着重要作用。
虽然那些被吹捧的说法似乎遥不可及,但数字技术和人工智能系统已经在社会、经济和政治层面上改变了我们的世界,并且影响着人们的日常生活,而且大多数时候是以无形的方式。2 “人工智能转向”——数据处理和自动推理已成为治理和决策的核心(Gurumurthy & Bharthur 2018)——正在对一系列问题产生直接影响。这些问题包括(仅举几例):谁将成为犯罪目标;哪些家庭获得资源或谁因欺诈而受到调查;哪些正义运动将成功被听到(或不会);哪里可能发现埋有战争罪证据的万人坑;有哪些援助可用以及将用于何处;人权监测和干预如何进行。技术科学知识的这些发展产生并源于一种知识和文化运动,Upendra Baxi(2007:214)将其称为“良性后人类”,该运动肯定了通过应用理性改善人类状况的可能性。弗吉尼亚·尤班克斯(Virginia Eubanks,2018)分析了治理实践数字化对美国弱势群体和穷人的影响,指出某些个人和群体通过过度监管和数据收集变得更加容易被国家所看到,而其他边缘化群体则产生了人工智能系统“无法读取”或“错误”的结果,从而成为“良好治理”体系忽视的受害者。这些系统
出席成员 Quentin L. Messer, Jr. 远程加入成员 Britany L. Affolter-Caine Wesley Eklund John Groen(代表 Corbin 主任) Dimitrius Hutcherson Michael B. Kapp(代表 Wieferich 主任) Andrew Lockwood(代表财务主管 Eubanks) Dan Meyering Leon Richardson Charles P. Rothstein Susan Tellier Cindy Warner 一、宣布会议开始和点名 Messer 先生于上午 10:05 宣布会议开始 会议在兰辛 MEDC 总部大楼密歇根湖会议室举行,可选择远程参与。Messer 先生介绍了 MSF 董事会联络员 Katelyn Wilcox Surmann,她负责点名。二、公众意见 Wilcox Surmann 女士解释了公众参与的流程。公众发表了意见。三、通讯 2023 年 12 月 11 日星期一,与 MSF 董事会进行了四次通讯。Wilcox Surmann 女士报告没有新的通讯。MSF 小组委员会报告 MSF 财务和投资小组委员会主席 Dimitrius Hutcherson 和 MSF 政策和规划小组委员会主席 Cindy Warner 提供了小组委员会活动的最新情况。Britany L. Affolter-Caine 于上午 9:35 离开会议 IV. 同意议程
在运营领域,一种越来越受关注的融合是它与人工智能 (AI) 等非常新颖和颠覆性的技术的结合。8 根据 Eubanks 8 在讨论人工智能在人力资源中的应用时所说,我们看到,如今的公司无论最初的目的是什么,都希望与技术联系在一起,人力资源也不会被排除在这种转型之外。员工要求获得有吸引力的体验、更好的条件和成长机会,而人工智能为人力资源带来了满足这一需求的希望,同时也帮助他们管理工作量。另一个促成这些技术被采用的因素是市场的现状,跳槽或远程办公等趋势正在兴起。人力资源有望用更少的资源做更多的事情,而人工智能可以提出以前无法提供的解决方案。不过,在应用数字化转型战略时,仍需强调考虑员工的意见、态度和可能的后果,因为大多数文献都提到了领导者的意见。9 组织文化和氛围被认为是数字化转型过程和结果的关键因素。在 Makarius 10 中,人工智能被认为是一种采用过程比其他技术更复杂的技术,需要社会流程来实现人工智能与员工之间的最佳融合。因此,OP 和 HRM 的作用是加强员工之间以及自身职能内部的最佳采用,以改进人力资源流程。
随着人工智能系统使用范围的不断扩大,围绕人工智能公平性和偏见的讨论也愈演愈烈,因为潜在的偏见和歧视也变得越来越明显。本调查研究了人工智能公平性和偏见的来源、影响和缓解策略。多项研究发现人工智能系统存在针对某些群体的偏见,例如 Buolamwini 和 Gebru (2018) 研究的面部识别系统,以及 Dastin (2018) 和 Kohli (2020) 研究的招聘算法。这些偏见可能会加剧系统性歧视和不平等,在招聘、贷款和刑事司法等领域对个人和社区产生不利影响(O'Neil,2016 年;Eubanks,2018 年;Barocas 和 Selbst,2016 年;Kleinberg 等人,2018 年)。研究人员和从业人员提出了各种缓解策略,例如提高数据质量(Gebru 等人,2021 年)和设计明确公平的算法(Berk 等人,2018 年;Friedler 等人,2019 年;Yan 等人,2020 年)。本文全面概述了人工智能偏见的来源和影响,研究了数据、算法和用户偏见及其伦理影响。它调查了当前关于缓解策略的研究,讨论了它们的挑战、局限性以及跨学科合作的重要性。研究人员、政策制定者和学术界广泛认识到人工智能公平性和偏见的重要性(Kleinberg 等人,2017 年;Caliskan 等人,2017 年;Buolamwini 和 Gebru,2018 年;欧盟委员会,2019 年;Schwartz 等人,2022 年;Ferrara,2023 年)。这篇综述论文深入探讨了人工智能中公平性和偏见的复杂和多方面问题,涵盖了偏见的来源、影响和拟议的缓解策略。总体而言,本文旨在通过阐明人工智能中公平性和偏见的来源、影响和缓解策略,为开发更负责任和更道德的人工智能系统做出持续努力。二、人工智能中的偏见来源
非人类人道主义:当人工智能的善举变成坏事时 Mirca Madianou 伦敦大学金史密斯学院 2018 年,有超过 1.68 亿人需要人道主义援助,同时有超过 6900 万人成为难民,人道主义部门面临着重大挑战。人工智能 (AI) 应用可以成为人道主义危机的潜在解决方案的提议受到了热烈欢迎。这是“人工智能用于社会公益”大趋势的一部分,也是“数字人道主义”更广泛发展的一部分,“数字人道主义”指的是公共和私营部门为应对人道主义紧急情况而使用数字创新和数据。聊天机器人、声称可以预测未来流行病或人口流动的预测分析和建模以及依赖于采用机器学习算法的先进神经网络的生物识别技术,都是在援助行动中越来越受欢迎的例子。本文建立了一个跨学科框架,将殖民和非殖民理论、人道主义和发展的批判性探究、批判性算法研究以及对人工智能的社会技术理解结合在一起。人道主义在这里被理解为一种复杂的现象:不仅仅是通常定义的“减少痛苦的必要性”(Calhoun,2008),而且是一种行业、一种话语和一种源于 19 世纪和 20 世纪殖民主义的历史现象(Fassin,2012;Lester & Dussart,2014)。人工智能同样是一个多面现象:不仅仅是基于先进计算和机器学习算法的技术创新,而且是一个行业以及关于技术的特定话语。人工智能只能与数据和算法一起理解——这三者是不可分割的,因为人工智能依赖于机器学习算法,而机器学习算法是特定数据集的产物。鉴于“大数据”本质上是不完整的,且具有本体论和认识论的局限性(Crawford & Finn,2014),人工智能应用会重现并可能放大大型数据集中发现的现有偏见(Benjamin,2019;Eubanks,2018;Noble,2018 等)。
C. Shan Xu 1 、Michal Januszewski 2 、Zhiyuan Lu 1,3 、Shin-ya Takemura 1 、Kenneth J. Hayworth 1 、Gary Huang 1 、Kazunori Shinomiya 1 、Jeremy Maitin-Shepard 2 、David Ackerman 1 、Stuart Berg 1 、Tim Blakely 2 、John Bogovic 1 、Jody Clements 1 、Tom Dolafi 1 、Philip Hubbard 1 、Dagmar Kainmueller 1,4 、William Katz 1 、Takashi Kawase 1 、Khaled A. Khairy 1,5 、Laramie Leavitt 2 、Peter H. Li 2 、Larry Lindsey 2 、Nicole Neubarth 6 、Donald J. Olbris 1 、Hideo Otsuna 1 、Eric T. Troutman 1、Lowell Umayam 1、Ting Zhao 1、Masayoshi Ito 1,7、Jens Goldammer 1,8、Tanya Wolffi 1、Robert Svirskas 1、Philipp Schlegel 9、Erika R. Neace 1、Christopher J. Knecht, Jr. 1、Chelsea X. Alvarado 1、Dennis A. Bailey 1、Samantha Ballinger 1、Jolanta A Borycz 3、Brandon S. Canino 1、Natasha Cheatham 1、Michael Cook 1、Marisa Dreher 1、Octave Duclos 1、Bryon Eubanks 1、Kelli Fairbanks 1、Samantha Finley 1、Nora Forknall 1、Audrey Francis 1、Gary Patrick Hopkins 1、Emily M. Joyce 1 、SungJin Kim 1、Nicole A. Kirk 1、Julie Kovalyak 1、Shirley A. Lauchie 1、Alanna Lohffi 1、Charli Maldonado 1、Emily A. Manley 1、Sari McLin 3、Caroline Mooney 1、Miatta Ndama 1、Omotara Ogundeyi 1、Nneoma Okeoma 1、Christopher Ordish 1、Nicholas Padilla 1、Christopher Patrick 1、Tyler Paterson 1、Elliott E. Phillips 1、Emily M. Phillips 1、Neha Rampally 1、Caitlin Ribeiro 1、Madelaine K Robertson 3、Jon Thomson Rymer 1、Sean M. Ryan 1、Megan Sammons 1、Anne K. Scott 1、Ashley L. Scott 1、Aya Shinomiya 1、Claire Smith 1、Kelsey Smith 1、Natalie L. Smith 1、Margaret A. Sobeski 1、Alia Suleiman 1、Jackie Swift 1、Satoko Takemura 1、Iris Talebi 1、Dorota Tarnogorska 3、Emily Tenshaw 1、Temour Tokhi 1、John J. Walsh 1、Tansy Yang 1、Jane Anne Horne 1,3、Feng Li 1、Ruchi Parekh 1、Patricia K. Rivlin 1、Vivek Jayaraman 1、Kei Ito 1,7,8、Stephan Saalfeld 1、Reed George 1、Ian Meinertzhagen 1,3、Gerald M. Rubin 1、Harald F. Hess 1、Louis K. Scheffer 1,* 、Viren Jain 2 和 Stephen M. Plaza 1
过去几年,人工智能 (AI) 和机器学习 (ML) 在地球科学中的应用呈指数级增长。在本文的其余部分,我们将 AI/ML 更笼统地称为 AI。至关重要的是,AI 开发人员必须以合乎道德和负责任的方式创建方法,以免 AI 以可能造成伤害的方式开发和部署。在这项工作中,我们以我们早期的研究 (McGovern 等人,2022) 为基础,该研究展示了 AI 在环境科学和地球科学应用中可能出错的多种方式。在这里,我们特别关注偏见问题,因为它是最近许多关于道德 AI 的工作的关键线索之一(例如,Peng 等人,2021 年;McGovern 等人,2022 年;Balagopalan 等人,2022 年;Almuzaini 等人,2022 年;Buolamwini,2023 年)。偏见被认为是开发合乎道德和负责任的人工智能时必须解决的一个关键问题。它是美国国家标准与技术研究院 (NIST) 在制定可信人工智能标准 (Schwartz 等人,2022 年) 时讨论的关键问题之一,并在新的人工智能行政命令中得到了解决。1 对于地球科学应用而言,考虑偏见相对较新 [参见最近的美国地球物理联盟人工智能指南 (Stall 等人,2023 年)]。有偏见的人工智能模型会以多种方式造成伤害,包括影响人们获得工作、拥有稳定住房等的能力。有关此类影响的示例,请参阅 O'Neil (2016)、Eubanks (2018)、Benjamin (2019) 和 Kantayya (2020)。当带有负面偏见的模型被部署并成为新闻时,它们会削弱公众对人工智能的整体信任。私营企业和政府都已经部署了此类模型。创建和理解值得信赖的人工智能是参与这项工作的每个人的重点,因为他们都是美国国家科学基金会天气、气候和沿海海洋学可信人工智能研究所 (AI2ES) 的成员。我们在这项工作中的总体目标与确保地球科学人工智能值得信赖的目标紧密相关:确保现在开发和部署的模型尽可能没有有害偏见。乍一看,与更广泛的人工智能应用相比,偏见似乎不是地球科学人工智能的问题。最近的研究表明,人工智能可以在气象学、气候、水文学、地震学等各种应用中取得成功
以应对人工智能助推主义的兴起(Benjamin,2019 年;Eubanks,2018 年),但有时难以获得政策制定者的关注(Crawford 等人,2019 年)。在本章中,我们对当代人工智能系统道德治理的一些拟议机制进行了批判性概述。这些策略包括旨在减轻人工智能系统设计中的偏见或不公平现象的技术解决方案,以及旨在指导这些系统构建和部署的法律、监管和其他社会机制。学术界和行业团队已经开发了用于开发公平、可信和可解释的人工智能系统的技术工具;社会法律治理机制包括来自民间社会团体、地方、州和超国家政府以及行业参与者的项目。后者的解决方案包括由上述三个类别的参与者颁布的高级价值观声明和围绕人工智能伦理的一系列原则;政府制定的针对人工智能的特定法律法规,以及企业和民间社会团体提出的自愿标准提案;以及将现有的人权框架和“证券化”论述应用于人工智能/机器学习技术的治理。我们主要关注北美和欧洲背景下的这些干预措施,依次描述了各种拟议的人工智能/机器学习治理机制,认为每种干预措施在实践中都支持了更广泛的企业和国家权力制度,人工智能/机器学习技术就是在这些制度下开发的。国家和企业参与者提出的各种人工智能/机器学习治理机制并不是独立运作的。正如 Nissenbaum ( 2011 ) 所观察到的,“法律和技术都有能力组织社会并建立秩序”(第 1373 页)。技术和社会治理机制共同作用,形成社会技术系统,了解这些要素在国家和企业行为者手中如何相互作用,对于确保 AI/ML 治理不仅最有效,而且最公正至关重要。各种物质、监管和修辞治理机制的相互依赖性可能会共同作用,但结果并不理想:通过其他方式削弱一种有效治理形式,从而颠覆这种治理形式,或者通过强调不同的治理机制来混淆、迷惑和延迟监督的实施。因此,治理机制之间的相互关系既可以阻碍平等和正义事业,也可以帮助平等和正义事业。在这里,我们批评了许多针对 AI/ML 治理提出的解决方案,认为它们支持一套狭隘、不公正、不民主的规范