执行摘要 社会公平(也称为公平和正义)是指收益和成本的分配,以及这种分配是否公平和适当。交通政策和规划决策对公平有重大影响:它们影响公共资源的分配、人们的生活质量和经济机会,以及旅行者给社区带来的外部成本。人们关心这些影响——他们希望规划决策能够反映公平目标。因此,从业者有责任在交通规划分析中评估公平影响。交通公平是一个及时的问题。过去,交通系统的性能主要基于旅行速度进行评估,这有利于更快但更昂贵和资源密集型的交通方式,例如驾驶,而不是更慢但更实惠、更包容和更高效的交通方式,例如步行、骑自行车和公共交通。公平辩论主要考虑交通资金的公平性,例如应如何征收和分配燃油税,以及不同车辆支付道路成本的份额程度。很少考虑交通系统是否为非驾驶员服务,或者规划决策如何影响外部成本,例如交通拥堵、碰撞风险和对其他人造成的污染。结果往往是不公平的。例如,许多高速公路项目破坏了多式联运城市社区,因为规划过程认识到这些项目为驾车者带来的好处,但很少考虑到它们对居民造成的可达性、宜居性和经济机会的降低。这些高速公路现在受到广泛批评,有些可能会被拆除,但它们造成的损害是不可逆转的。再举一个例子。大多数司法管辖区都有路外停车最低限额,这会使房屋成本增加数万美元,使普通家庭每周的食品杂货账单增加几美元。这是不公平的,因为它迫使驾驶率低于平均水平的家庭补贴驾驶率高于平均水平的邻居的停车费。然而,这些公平影响往往被忽视;在评估停车最低限额时,规划人员很少分析谁最终承担成本或它们如何影响住房和食品负担能力。这些例子说明了在交通规划中需要更全面的公平分析。然而,这可能具有挑战性。如何定义公平、考虑和衡量影响以及对人员进行分类会显著影响结果。一项决策可能以一种方式评估时看起来公平,但以另一种方式评估时则不然。没有单一的正确方法来评估交通公平性。通常最好考虑各种观点、影响和分析方法。公平规划需要参与交通决策的人们了解这些问题。本报告概述了主要的交通公平概念,并描述了将公平目标纳入政策和规划分析的实用方法。
蝴蝶效应这一概念源自混沌理论,强调微小变化如何对复杂系统产生重大且不可预测的影响。在人工智能公平性和偏见的背景下,蝴蝶效应可能源于多种来源,例如算法开发过程中的小偏差或倾斜的数据输入、训练中的鞍点或训练和测试阶段之间数据分布的变化。这些看似微小的改变可能会导致意想不到的、严重的不公平结果,对代表性不足的个人或群体产生不成比例的影响,并延续先前存在的不平等。此外,蝴蝶效应可以放大数据或算法中固有的偏见,加剧反馈回路,并为对抗性攻击创造漏洞。鉴于人工智能系统的复杂性及其社会影响,彻底检查对算法或输入数据的任何更改是否可能产生意想不到的后果至关重要。在本文中,我们设想了算法和经验策略来检测、量化和减轻人工智能系统中的蝴蝶效应,强调了解决这些挑战以促进公平和确保负责任的人工智能发展的重要性。
Leesa Soulodre 是 R3i Ventures 和 R3i Capital 的普通合伙人,R3i Capital 是一家专注于创新咨询和 AI 的风险投资基金,业务遍及美国、欧洲和亚太地区。Leesa 已为 19 个行业的 400 多家跨国公司和众多初创企业提供服务。她为全球最大的公司实现了 50 多个技术驱动的全球声誉项目,并为 200 多家金融机构提供了数据驱动的负责任投资战略。她是 SMU Cox 商学院的创业和复杂问题解决临床教授,也是 IE 商学院、卢森堡商学院和新加坡管理大学的兼职教授。
● HW1:研究过程中的道德规范 - 这项作业将向学生介绍开展公平和道德研究的概念。重点将放在对 IRB 本质的历史理解上。学生将完成 CITI 人类受试者研究培训作为其作业的一部分。● HW2:数据和预测中的偏见 - 学生将学习将基本的数据挖掘技术应用于数据。学生将设计和对大型数据集进行统计测试。这些测试将围绕公平概念以及如何利用技术来识别不公平进行设计。● HW3:NLP 中的偏见 - 学生将学习命名实体识别中的性别偏见。解决这项作业需要基本的自然语言处理技术,包括基于转换器的语言模型,如 BERT。● HW4:网络中的偏见——在这项作业中,学生将学习和应用基本的网络技术来发现网络中的性别偏见。女性在网络中的代表性是更多还是更少?她们是否倾向于占据比男性更高或更低的中心位置?注意:在书面和编程作业中,描述和分析的完整性和清晰度与最终的正确答案一样重要。仅发送单个最终值(即使正确)是不够的。请参阅下表:
本文总结并评估了在人工智能 (AI) 系统中追求公平性的各种方法、手段和技术。本文分析了这些措施的优点和缺点,并提出了定义、衡量和防止人工智能偏见的实用指南。特别是,本文告诫不要使用一些过于简单但常见的评估人工智能系统偏见的方法,并提供了更复杂、更有效的替代方案。本文还通过为高影响力人工智能系统的不同利益相关者提供通用语言,解决了该领域普遍存在的争议和困惑。本文描述了涉及人工智能公平性的各种权衡,并提供了平衡这些权衡的实用建议。本文提供了评估公平性目标的成本和收益的技术,并定义了人类判断在设定这些目标中的作用。本文为人工智能从业者、组织领导者和政策制定者提供了讨论和指导,并为技术含量更高的受众提供了各种其他材料的链接。提供了大量现实世界的例子,从实践角度阐明了概念、挑战和建议。1.简介 1.1 本文结构 本文分为五个部分。在简介中,我们使用一个假设的案例研究来探索人工智能公平的重要原则并定义本文的范围。以下两节深入讨论了人工智能公平的两个广泛概念:对个人的待遇与模型的结果。第四部分描述了实现人工智能公平所涉及的一些固有权衡和实际挑战。在最后一节,我们提供了克服这些挑战的实用指南。在
认为他们的风险低于白人被告的风险。ProPublica 认为这存在很大问题,因为在这一应用领域的错误决策会对被告的生活产生重大影响,可能影响他们提前获释的前景、缓刑条件或保释金额(Angwin 等人,2016 年)。这个来自刑事司法领域的例子表明,歧视不仅是人类的问题,也是算法决策的问题。在考虑机器学习算法时,算法公平性尤其有趣,因为它们通常从过去的数据中学习,而这些数据可能已经有了偏差。此外,倾向于做出不公平决策的机器学习算法可能会导致系统性歧视,因为一旦经过训练,算法可能会为大量未来案件做出决策。因此,人工智能算法被用于个性化广告、招聘、信贷业务或定价等多种场合(Dastile 等人,2020 年;Lambrecht 和 Tucker,2019 年;Raghavan 等人,2020 年;Sweeney,2013 年),它们会严重影响个人和社会生活的进一步发展,例如扩大贫富差距,也会影响组织,例如违反机会均等政策(Kordzadeh 和 Ghasemaghaei,2022 年)。因此,至关重要的不仅是要确保人工智能系统不会系统性地歧视,更进一步,还要将其理解为减轻人类决策造成的潜在不公平现象的机会。本讨论文件主要参考了 2022 年 3 月举行的德国商业研究学会 (VHB) 第 100 届年会期间举行的算法公平性研讨会。研讨会是跨学科的,发言者来自哲学和伦理学、商业和信息系统工程、法律等领域,以及来自以下领域的实践代表:
科罗拉多州能源办公室开展了这项电动汽车 (EV) 公平性研究,旨在了解阻碍社会经济或交通需求较大的地区获得电动交通及其好处的因素,并为科罗拉多州及其合作伙伴提供工具,以设计支持公平电气化的计划。这份电动汽车公平性研究报告以公平性为中心,介绍了支持交通电气化的一系列可用选项,并提供了可立即支持科罗拉多州实施这些选项的工具。在本报告中,“电动汽车公平性”一词广泛指支持公平使用电动交通及其好处的任何政策、战略、参与、援助或其他资源。本报告分为四个部分,重点关注不同的公平性问题。
战略性多样性、公平性和包容性 (DE&I) 管理计划可以帮助组织通过创建包容性、公平性和可持续的文化和工作环境来充分利用其多样性。工作场所多样性是差异和相似之处的集合,包括个人和组织的特征、价值观、信仰、经验、背景、偏好和行为。