摘要 目的——本文旨在查明和分析人工智能 (AI) 在气候变化方面的双重作用所引发的伦理问题,即人工智能作为气候变化的贡献者和人工智能作为应对气候变化的贡献者。 设计/方法/方法——本文由三个主要部分组成。第一部分分别简要介绍了人工智能和气候变化的背景,然后介绍了人工智能对气候变化贡献的实证研究结果。第二部分介绍了各种人工智能研究人员和评论员提出的建议,即人工智能公司如何通过减少人工智能训练和使用产生的温室气体排放以及为各种缓解和适应措施提供人工智能援助来为应对气候变化做出贡献。最后一部分探讨了第二部分中提出的一些选项所引发的伦理问题。 发现——人工智能应用可能导致大量排放,但也可能在缓解和适应方面发挥重要作用。鉴于人工智能的双重作用,人工智能公司和政府的道德考虑至关重要。实际意义——本文指出了人工智能公司和政府应考虑的实际伦理问题。社会意义——鉴于人工智能对社会的潜在影响,人工智能公司和政府必须认真对待人工智能与气候变化有关的双重作用所引发的伦理问题。原创性/价值——人工智能一直是大量伦理调查的主题,气候变化更是如此。然而,从伦理角度来看,人工智能与气候变化之间的关系只受到有限的关注。本文提供了这样的考虑。
任何评论员都将当前的 DSR 与 1986 年的 Dibb 报告进行比较,后者为次年的白皮书奠定了基础,进而导致了国防的重大改革和战略思维的转变。有些人忘记了,保罗·迪布教授是一个才华横溢的人,他拒绝追随正统的主流思想,并且看到了重大变革的紧迫性。尽管他在国防部有着杰出的职业生涯 - 特别是在情报方面 - 但他对当时的 ADF 部队结构感到不满,因为自第二次世界大战结束以来,该结构几乎没有变化。他也是一位反体制人物,1986 年他发表了《苏联——不完整的超级大国》。这项经过深入研究的研究——可以说是当时最好的研究——解释说,虽然苏联在军事上看起来很强大,但它是一个存在根本缺陷的结构,无法维持长期冲突。这使他与大多数分析家——尤其是来自美国的保守派——完全相反,他们夸大了苏联的无敌性,以吓唬每个人,并为日益庞大的军事预算寻找理由。正是由于这种愿意跳出框框思考的背景,他被当时年轻、名不见经传的国防部长金·比兹利选中,对澳大利亚的情况进行了认真的研究。他很快得出结论,只为远征行动做准备是一个错误,需要的是一种更加混合的方法,优先考虑保卫澳大利亚。近 40 年后,这可能看起来很奇怪
Gary Marchant 和 Joseph R. Tiano, Jr. 1 鉴于技术发展速度快而法律治理速度慢,人工智能 (AI) 等技术的发展速度往往会超过法律治理的速度。 2 这一问题也适用于法律道德 — 新技术带来了新的道德困境,美国律师协会 (ABA) 和州律师协会难以跟上这些困境。传真机、电子邮件、手机、云计算、社交媒体和虚拟办公室等以前的技术也面临过这样的挑战。正如一位评论员所说,“每一项新技术都有自己的一套道德陷阱,不幸的是,律师们没有注意到这些陷阱,就会给律师们带来警示。” 3 因此,每一项进入法律界的新技术都会引发新一轮的辩论,即我们是否需要新的法律道德规则,或者对现有规则的补充评论,或者关于新技术如何援引现有道德规则的咨询意见,或者律师在使用新技术时是否以及如何调整他们的实践以保持在专业规范的范围内。没有哪项技术比人工智能更能颠覆法律实践和整个社会。正如 ABA 期刊的封面故事所指出的:“人工智能不仅仅是一种法律技术。它是法律行业革命的下一个伟大希望……人工智能的突出之处在于它有可能彻底改变法律工作的模式。”4 鉴于法律工作的这种“模式转变”,人工智能已经在法律伦理和职业责任领域产生新的问题和挑战也就不足为奇了。
1 各方就 Yearsley 原则的正确描述展开了激烈争论。具体来说,他们提出了一个问题:是否应该将其视为“豁免”或“辩护”。通过将其描述为“豁免”,GEO 试图将 Yearsley 原则与“符合担保命令原则的多种豁免形式”联系起来。Aplt.'s Br. in Opp'n to Mot. to Dismiss(“Aplt.'s Opp'n Br.”)第 2 页。另一方面,通过将该原则描述为“辩护”,原告-上诉人试图强调 Yearsley 原则提供的是“对责任的辩护,而不是诉讼豁免”。Aplees.' Mot. to Dismiss,第 8-9 页。尽管指出 Yearsley 案“仍然是从承包商与主权实体的关系中获得豁免权的开创性案例”,评论员们强调,该案“从未使用‘豁免权’一词”。Kate Sablosky Elengold & Jonathan D. Glater,《主权之盾》,73 S TAN. L. R EV. 969,989 (2021)。我们认为,在本案中,没有必要也不明智地介入关于如何标记 Yearsley 原则的争论。相反,我们将注意力集中在 Cohen v. Beneficial Industrial Loan Corp.,337 US 541 (1949) 下的狭义问题上,即对驳回承包商根据 Yearsley 案主张保护的命令的上诉是否可以完全独立于实质内容进行审查。我们的答案是否定的。因此,根据科恩案,我们对 GEO 援引 Yearsley 的保护提出的临时上诉没有管辖权。
评论员们探讨了它们之间的区别。4 在实践中,一种常见的方法是通过调查问题来评估个人的生活满意度,使用简单的自我评估问题,例如“你对现在的生活有多满意?” 这个问题构成了许多幸福感测量举措的基础。受访者对这个问题的回答取决于许多可观察和不可观察的影响和经历。例如,《2019 年世界幸福报告》中基于个人生活满意度评估的国家排名受到收入、社会支持和健康等因素的严重影响,还有相当大一部分残差无法用任何测量因素来解释。5 此外,回答可能会受到受访者期望的影响。鉴于生活满意度作为一个概念本身就很复杂和模糊,人们一直在努力开发依赖于可能有助于幸福感的更客观因素的测量框架。一个早期的例子是人类发展指数,它将健康、教育和收入纳入一个综合指标。 6 最近,经济合作与发展组织 (OECD) 的“更好生活”倡议收集了住房、收入、工作、工作与生活平衡以及生活满意度等主题的数据,并允许分析师通过为指标附加自己的相对权重来创建幸福感的综合指标。 7 这种灵活性对于确保当地接受幸福感方法可能很重要。更多本地化的方法包括英国新经济基金会智库关于衡量社会企业对幸福感影响的指导。 8
过去十年,基于新的机器学习技术和大量数据集的可用性,人工智能 (AI) 取得了快速发展。1 预计未来几年这种变化将加速(例如,Ne- apolitan 和 Jiang 2018;Russell 2019),AI 应用已经开始对企业产生影响(例如,Agarwal、Gans 和 Goldfarb 2018)。一些评论员认为这是失业未来的预兆(例如,Ford 2015;West 2018;Susskind 2020),而其他人则认为即将到来的 AI 革命将丰富人类的生产力和工作经验(例如,麦肯锡全球研究所 2017)。鉴于迄今为止关于 AI 对劳动力市场影响的证据有限,这些对立观点的持续存在并不令人惊讶。数据收集工作最近才开始确定商业 AI 使用的普遍性,我们甚至缺乏系统性证据来证明 AI 的采用是否大幅增加 — — 而不仅仅是广泛的媒体报道。本文研究了美国的 AI 采用及其影响。我们的出发点是,AI 的采用可以从采用机构留下的足迹中部分识别出来,因为它们雇用专门从事 AI 相关活动的员工,例如监督和无监督学习、自然语言处理、机器翻译或图像识别。为了将这个想法付诸实践,我们根据 Burning Glass Technologies(以下简称 Burning Glass 或 BG)在 2007 年和 2010 年至 2018 年期间发布的美国在线职位空缺信息及其详细技能要求,构建了一个机构级 AI 活动数据集。2
该国某些地区或某些季节的能力相对不足。nerc相当明确的是,“应将其建议视为起点,将研究提高可靠性改善的那些领域优先考虑。” 6该级别设定有助于确定批量电力系统的当前状态,并应为我们的国家电网的实际解决方案提供最佳信息。尽管它为辨别等待该行业的工作提供了一个很好的起点,但该研究并未提供支持全国传输基础设施大规模建立所需的完整图片。最初,正如NERC明确的那样,其“审慎的补充”本质上是技术性的,而不是基于经济理由。7值得庆幸的是,该研究将动态线评级(DLR)确定为提高传输能力的实用和可用工具。8包括R Street Institute在内的许多评论员在其他诉讼程序中向委员会传达了成本效益的网格增强技术(包括DLR)如何满足客户需求。9遗憾的是,“ DLR已经过去了,并且由于[传输提供商]在服务成本监管方面的反向激励措施,并且将继续被长期未被充分利用。” 10委员会必须采取更多措施来纠正这种不正当的激励措施,R Street要求委员会根据案卷号RM24-6-000。 11RM24-6-000。11作为研究固定的传输等级,DLR的稳健实现也应具有直接效果,即使在某些情况下仅对传输能力略有效果。
在本期杂志付印之时,有关大型科技公司商业使用人工智能(AI)的新闻和讨论 — — 特别是机器学习,尤其是在美国和中国 — — 已是家常便饭。彻底的商业人工智能成为地缘政治、军事、金融、劳工、健康和艺术等讨论的中心。本期年鉴特刊首先观察到,当今的商业人工智能以及有关其未来影响的热烈讨论有着悠久的历史。从 20 世纪 70 年代开始,一种与当今机器学习截然不同的人工智能形式发展起来并引起了广泛关注:专家系统。专家系统使用逻辑推理,根据大量“如果,那么”规则得出结论,这些规则旨在代表领域专家的知识。 20 世纪 80 年代,初创企业、私营企业以及美国军方及其承包商掀起了专家系统商业化的浪潮。在这十年中,伴随着这波商业化浪潮,科学家、工程师和评论员提出了关于商业专家系统对工业、军事和文化重要性的全面观点。尽管专家系统的商业化对人工智能的历史至关重要,并且与我们现在的时代有着明显的共鸣,但这段历史却没有得到充分的记录和研究。(有关这一观点的更多信息,请参阅 David C. Brock 的《从人工智能的先前觉醒中学习:专家系统的历史》,《AI Magazine》,第 39 卷,第 3 期,第 3-15 页,2018 年秋季。)
过去十年,基于新的机器学习技术和大量数据集的可用性,人工智能 (AI) 取得了快速发展。1 预计未来几年这种变化将加速(例如,Ne- apolitan 和 Jiang 2018;Russell 2019),AI 应用已经开始对企业产生影响(例如,Agarwal、Gans 和 Goldfarb 2018)。一些评论员认为这是失业未来的预兆(例如,Ford 2015;West 2018;Susskind 2020),而其他人则认为即将到来的 AI 革命将丰富人类的生产力和工作经验(例如,麦肯锡全球研究所 2017)。鉴于迄今为止关于 AI 对劳动力市场影响的证据有限,这些对立观点的持续存在并不令人惊讶。数据收集工作最近才开始确定商业 AI 使用的普遍性,我们甚至缺乏系统性证据来证明 AI 的采用是否大幅增加 — — 而不仅仅是广泛的媒体报道。本文研究了美国的 AI 采用及其影响。我们的出发点是,AI 的采用可以从采用机构留下的足迹中部分识别出来,因为它们雇用专门从事 AI 相关活动的员工,例如监督和无监督学习、自然语言处理、机器翻译或图像识别。为了将这个想法付诸实践,我们根据 Burning Glass Technologies(以下简称 Burning Glass 或 BG)在 2007 年和 2010 年至 2018 年期间发布的美国在线职位空缺信息及其详细技能要求,构建了一个机构级 AI 活动数据集。2
摘要 目的——本文旨在查明和分析人工智能 (AI) 在气候变化方面的双重作用所引发的伦理问题,即人工智能作为气候变化的贡献者和人工智能作为应对气候变化的贡献者。 设计/方法/方法——本文由三个主要部分组成。第一部分分别简要介绍了人工智能和气候变化的背景,然后介绍了人工智能对气候变化贡献的实证研究结果。第二部分介绍了各种人工智能研究人员和评论员提出的建议,即人工智能公司如何通过减少人工智能训练和使用产生的温室气体排放以及为各种缓解和适应措施提供人工智能援助来为应对气候变化做出贡献。最后一部分探讨了第二部分中提出的一些选项所引发的伦理问题。 发现——人工智能应用可能导致大量排放,但也可能在缓解和适应方面发挥重要作用。鉴于人工智能的双重作用,人工智能公司和政府的道德考虑至关重要。实际意义——本文指出了人工智能公司和政府应考虑的实际伦理问题。社会意义——鉴于人工智能对社会的潜在影响,人工智能公司和政府必须认真对待人工智能与气候变化有关的双重作用所引发的伦理问题。原创性/价值——人工智能一直是大量伦理调查的主题,气候变化更是如此。然而,从伦理角度来看,人工智能与气候变化之间的关系只受到有限的关注。本文提供了这样的考虑。