近年来,人工智能 (AI) 已广泛应用于一系列跨学科任务,在蛋白质折叠 (Jumper 等人 2021)、游戏 (Silver 等人 2018) 和文本生成 (Brown 等人 2020) 方面取得了成功,成为大众媒体的头条新闻。人工智能还可能在刑事司法系统中承担一些任务,这是学者和从业者激烈争论的话题。美国法院使用 COMPAS 算法计算再犯风险的做法在著名的 Loomis v. Wisconsin 案 (Loomis v. Wisconsin 881 NW2d 749 (Wis. 2016)) 中受到了质疑,法院驳回了对 COMPAS 支持的决定的上诉,但也警告了使用此类算法的风险及其透明度。后来,ProPublica 发表了一项研究,表明该算法存在偏见
RealPage还吸引了许多参议员和国会议员的审查。在2022年11月,ProPublica报告后不久,Sens。Amy Klobuchar(D-MN),Dick Durbin(D-IL)和Cory Booker(D-NJ)写信给司法部,担心RealPage使“ Cartel可以人为地膨胀多户住宅建筑中的租金”。 16参议员Sherrod Brown(D-OH)呼吁联邦贸易委员会审查RealPage和Rental定价算法是否违反了法律。17 2023年11月,众议员丹尼尔·高盛(D-NY)敦促纽约总检察长莱蒂蒂亚·詹姆斯(Letitia James)调查该公司。18
摘要 人工智能伦理中的公平和团结原则经常重叠,在实践中造成了模糊性:按照其中一种原则行事似乎与按照另一种原则做决定没有区别。然而,也存在两个概念分裂的不规则案例,从而揭示出它们不同的含义和用途。本文探讨了人工智能医学伦理中的两个案例——一个是不规则的,另一个更为常规——以充分区分公平和团结。然后将这种区别应用于司法伦理中经常被引用的 COMPAS 与 ProPublica 之争。该应用为解决关于公平和团结的当代和热门辩论提供了一个更广泛的模型。它还暗示了关于人工智能伦理原则及其正当性的更深层次和令人困惑的真相。 关键词 人工智能伦理、哲学、公平、团结、COMPAS
人工智能(AI)方法是现代世界不可或缺的一部分。如今,每个与智能手机互动的人都与AI接触(Herget,2024)(Wired Insider,2021)。 自从大型语言模型(LLMS)(CF(BSI,2024a)易于获得BSI的评论)以来,公众对AI存在的意识已广泛传播。 但是,自引入LLM之前,AI算法支持或自动执行决策过程。 Propublica的报告,即预测模型用于确定美国犯罪嫌疑人的累犯风险,受到了很大的关注(Angwin等,2016)。 在金融领域,基于AI的预测模型用于支持贷款申请的决定或预测金融市场的发展(Aziz等,2022)。 此外,使用基于AI的决策支持系统进行诊断和治疗患者的治疗,目前已在医学中进行了研究或部分实施(社论,2024年)(皇家放射学院,等,2023)(BSI,2024年)。 这些是高度敏感的领域,在这种领域中,错误的决定可能会对公民造成社会,法律,财务或健康损害。如今,每个与智能手机互动的人都与AI接触(Herget,2024)(Wired Insider,2021)。自从大型语言模型(LLMS)(CF(BSI,2024a)易于获得BSI的评论)以来,公众对AI存在的意识已广泛传播。但是,自引入LLM之前,AI算法支持或自动执行决策过程。Propublica的报告,即预测模型用于确定美国犯罪嫌疑人的累犯风险,受到了很大的关注(Angwin等,2016)。在金融领域,基于AI的预测模型用于支持贷款申请的决定或预测金融市场的发展(Aziz等,2022)。此外,使用基于AI的决策支持系统进行诊断和治疗患者的治疗,目前已在医学中进行了研究或部分实施(社论,2024年)(皇家放射学院,等,2023)(BSI,2024年)。这些是高度敏感的领域,在这种领域中,错误的决定可能会对公民造成社会,法律,财务或健康损害。
下午好 — 我是 ProPublica Illinois,这是一家位于芝加哥的州级新闻编辑室。我正在寻找 EPA 和 EPA 第 7 区与 Woolsey 运营公司(及其关联公司)相关的所有文件和记录,包括其高容量水力压裂作业和许可(伊利诺伊州自然资源部注册号:HVHHF-00003)。 Woolsey 在堪萨斯州的名称和地址如下:WOOLSEY PETROLEUM LIMITED PARTNERSHIP 1983 105 N MARKET ST STE 600, WICHITA, KS 67202-1801(代理人:BRUCE C. WARD,地址:STE 400 300 W DOUGLAS, WICHITA, KS 67202)WOOLSEY PETROLEUM CORPORATION 125 N MARKET STE 1000, WICHITA, KS 67202-1807(代理人:KAY WOOLSEY,地址:107 N MARKET / STE 600, WICHITA, KS 67202)WOOLSEY OPERATING COMPANY, LLC 125 N MARKET SUITE 1000, WICHITA, KS 67202(代理人:KAY WOOLSEY位于 125 NORTH MARKET SUITE 1000, WICHITA, KS 67202) WOOLSEY INVESTMENTS, LLC 125 N Market Suite 1000, WICHITA, KS 67202(代理人:I. WAYNE WOOLSEY,位于 125 N Market Suite 1000, WICHITA, KS 67202) WOOLSEY FIVE, LLC 125 N Market Suite 1000, WICHITA, KS 67202(代理人:KAY WOOLSEY,位于 125 N Market Suite 1000, WICHITA, KS 67202) WOOLSEY ENERGY II, LLC 125 N Market Suite 1000, WICHITA, KS 67202(代理人:I. WAYNE WOOLSEY,位于 125 N Market Suite 1000, WICHITA, KS 67202) WOOLSEY ENERGY CORPORATION 125 N MARKET STE 1000,WICHITA,KS 67202(代理人:I. WAYNE WOOLSEY,地址:125 N MARKET STE 1000,WICHITA,KS 67202) WOOLSEY COMPANIES, INC. 125 N. MARKET ST. STE 1000,WICHITA,KS 67202(代理人:J. W
人工智能(AI)已成为我们日常生活中不可或缺的一部分,从虚拟分析到推荐系统为各种应用提供了动力。但是,随着AI系统越来越多地与人互动并做出决定,对公平和偏见的担忧已经走向了最前沿。这些系统经常在大型数据集中受过培训,并不总是清楚地确保数据收集过程中数据质量的准则,可以无意中学习和延续这些数据集中存在的偏见,从而导致不公平的结果。一个众所周知的例子是美国刑事司法系统中使用的Compas系统,该系统预测被告再犯罪的可能性。Propublica的一项研究发现,该系统对非裔美国人被告有偏见,因为即使没有事先定罪,他们也更有可能被标记为高风险。应对这些挑战,AI研究界的一部分一直在探索各种策略,以确保偏见并确保公平。已经出现了大量方法,其中一些涉及重新处理用于培训此类系统的数据,而另一些方法涉及根据预定义的公平指标选择最佳模型,或者其他涉及为决策制定程序提供更透明的方法。而LLM是AI中最突出的突破之一,在广泛的
认为他们的风险低于白人被告的风险。ProPublica 认为这存在很大问题,因为在这一应用领域的错误决策会对被告的生活产生重大影响,可能影响他们提前获释的前景、缓刑条件或保释金额(Angwin 等人,2016 年)。这个来自刑事司法领域的例子表明,歧视不仅是人类的问题,也是算法决策的问题。在考虑机器学习算法时,算法公平性尤其有趣,因为它们通常从过去的数据中学习,而这些数据可能已经有了偏差。此外,倾向于做出不公平决策的机器学习算法可能会导致系统性歧视,因为一旦经过训练,算法可能会为大量未来案件做出决策。因此,人工智能算法被用于个性化广告、招聘、信贷业务或定价等多种场合(Dastile 等人,2020 年;Lambrecht 和 Tucker,2019 年;Raghavan 等人,2020 年;Sweeney,2013 年),它们会严重影响个人和社会生活的进一步发展,例如扩大贫富差距,也会影响组织,例如违反机会均等政策(Kordzadeh 和 Ghasemaghaei,2022 年)。因此,至关重要的不仅是要确保人工智能系统不会系统性地歧视,更进一步,还要将其理解为减轻人类决策造成的潜在不公平现象的机会。本讨论文件主要参考了 2022 年 3 月举行的德国商业研究学会 (VHB) 第 100 届年会期间举行的算法公平性研讨会。研讨会是跨学科的,发言者来自哲学和伦理学、商业和信息系统工程、法律等领域,以及来自以下领域的实践代表:
人工智能可以重新编程新闻编辑室吗?自动化新闻中的信任、透明度和道德 计算机程序可以编写引人入胜的新闻故事吗?在路透社最近的一份技术趋势和预测报告中,接受调查的 200 名数字领导者、编辑和首席执行官中,78% 表示投资人工智能 (AI) 技术将有助于确保新闻业的未来 (Newman, 2018)。然而,探索这些新的报道方法,为那些已经在努力理解人类记者和计算工作之间复杂动态的人带来了一系列无法预见的道德问题。在新闻编辑室实施自动化叙事向记者提出了如何保持和鼓励报道的准确性和公正性以及对他们所服务的受众的透明度的问题。新闻编辑室中的人工智能已经从一个想法发展成为现实。1998 年,计算机科学家 Sung-Min Lee 预测人工智能将在新闻编辑室得到应用,届时“机器人代理”将与人类记者一起工作,有时甚至代替人类记者 (Latar, 2015)。2010 年,Narrative Science 成为第一家使用人工智能将数据转化为叙事文本的商业企业。Automated Insights 和其他公司紧随 Narrative Science 之后,通过自动化讲故事的方式将 Lee 的“机器人代理”带入新闻编辑室。虽然当今的新闻编辑室正在使用人工智能来简化各种流程,从跟踪突发新闻、收集和解释数据、核实在线内容,甚至创建聊天机器人来向用户推荐个性化内容,但自动生成文本和视频故事的能力促使整个行业转向自动化新闻,或“使用软件或算法自动生成新闻故事而无需人工干预的过程”(Graefe, 2016)。《福布斯》、《纽约时报》、《华盛顿邮报》、《ProPublica》和彭博社只是当今在新闻报道中使用人工智能的部分新闻编辑室。《华盛顿邮报》的“内部自动化叙事技术”Heliograf 只是新闻编辑室利用人工智能扩大其在体育和金融等严重依赖结构化数据的领域的报道的众多例子之一,“让记者专注于深入报道”(Gillespie,2017 年)。人工智能有可能让新闻编辑室和报摊的记者都变得更好。通过自动化,现在可以进行大量的新闻报道新闻智库 Polis 在其 2019 年新闻 AI 报告中透露,新闻编辑室使用人工智能的主要动机是“帮助公众应对新闻过载和错误信息的世界,并以便捷的方式将他们与与他们的生活相关、有用和有益的可靠内容联系起来”(Beckett,2019 年)。