人工智能 (AI) 的快速发展引发了专家、政策制定者和世界领导人对日益先进的人工智能系统可能带来灾难性风险的担忧。尽管已经分别详述了许多风险,但迫切需要系统地讨论和说明潜在危险,以便更好地指导减轻这些风险的努力。本文概述了灾难性人工智能风险的主要来源,我们将其分为四类:恶意使用,即个人或团体故意使用人工智能造成伤害;人工智能竞赛,即竞争环境迫使参与者部署不安全的人工智能或将控制权交给人工智能;组织风险,强调人为因素和复杂系统如何增加灾难性事故发生的可能性;流氓人工智能,描述了控制比人类聪明得多的代理的固有难度。对于每一类风险,我们都会描述具体的危害,提供说明性故事,设想理想情景,并提出减轻这些危险的实用建议。我们的目标是促进对这些风险的全面了解,并激发集体和主动的努力,以确保以安全的方式开发和部署人工智能。最终,我们希望这将使我们能够实现这项强大技术的好处,同时最大限度地降低发生灾难性后果的可能性。1
首先,上述论点设想的人工智能系统至少具有人类水平的认知能力,但其行为方式让我们觉得反复无常且在道德上格格不入,追求无限的权力以实现任意目标。这令人惊讶。也许这也是难以置信的。随着人工智能系统发展出与我们类似的认知能力,它们的动机也可能会趋同于类似我们的东西(参见 Müller 和 Cannon 2021)。灾难性的权力追求可能会很少见。与这种思路相反,正交论认为,任意高水平的智力可以与或多或少任何最终目标相结合(Bostrom 2012)。如果这是真的,那么一个系统就可以超级智能,而无需受到有利于人类繁荣的关注的驱动。我们将在第 3 节中进一步讨论这些问题。
人工智能 (AI) 的快速发展引发了专家、政策制定者和世界领导人对日益先进的人工智能系统可能带来灾难性风险的担忧。尽管已经分别详述了许多风险,但迫切需要系统地讨论和说明潜在危险,以便更好地指导减轻这些风险的努力。本文概述了灾难性人工智能风险的主要来源,我们将其分为四类:恶意使用,即个人或团体故意使用人工智能造成伤害;人工智能竞赛,即竞争环境迫使参与者部署不安全的人工智能或将控制权交给人工智能;组织风险,强调人为因素和复杂系统如何增加灾难性事故发生的可能性;流氓人工智能,描述了控制比人类聪明得多的代理的固有难度。对于每一类风险,我们都会描述具体的危害,提供说明性故事,设想理想情景,并提出减轻这些危险的实用建议。我们的目标是促进对这些风险的全面了解,并激发集体和主动的努力,以确保以安全的方式开发和部署人工智能。最终,我们希望这将使我们能够实现这项强大技术的好处,同时最大限度地降低发生灾难性后果的可能性。1
2022 年 12 月 31 日——国防高级研究计划局 (DARPA) 生物技术办公室 (BTO) 专注于解决潜在的严重生物学问题……
2021 年 12 月 15 日——Chitale 为 CSR 简报“美国关键应对生物威胁的举措部分。6:国防高级研究计划局 (DARPA)”,...
摘要 2024 年 11 月 7 日,CPUC 发布了两项提案以解决诉讼 A.21-09-008,即太平洋煤气电力公司 (PG&E) 的申请,要求报销 2020 年增量植被管理成本 5.92 亿美元。2024 年 12 月 12 日和 2024 年 12 月 17 日,两个提案的修订版分别发布,即行政法官的拟议决定和负责此诉讼的专员 Alice Reynolds 总裁的替代拟议决定。两项提案都批准了部分费率追偿成本,并拒绝了 PG&E 请求的其他部分,认定 PG&E 未能证明其 2020 年植被管理工作相关的某些成本是合理的。2024 年 12 月 19 日,CPUC 批准了替代拟议决定,其中包括以下内容:
2003 年 3 月 1 日,联邦紧急事务管理局 (FEMA) 成为美国国土安全部的一部分。FEMA 在新部门内的持续使命是领导国家为所有危险做好准备的努力,并在任何国家事件发生后有效管理联邦响应和恢复工作。FEMA 还发起主动缓解活动,培训急救人员,并管理国家洪水保险计划和美国消防局。FEMA 的美国消防局 (USFA) 担任该机构的消防和应急响应社区专家。它位于马里兰州埃米茨堡的国家应急培训中心,包括国家消防学院和应急管理研究所。USFA 的使命是通过研究和培训、公众教育以及与其他联邦机构和消防及应急服务人员的协调,挽救生命并减少火灾和相关紧急情况造成的经济损失。为了实现 USFA 的法定任务(根据 1974 年 10 月 29 日的公法 93-498),“促进消防人员和其他从事火灾预防和控制活动的人员的专业发展”,USFA 的国家消防学院提供了多样化的授课系统。课程在埃米茨堡校区和全国各地与州和地方消防培训组织合作授课。
该计划是基于风险而非情景驱动的,利用了国家洪水保险计划下的洪水保险费率图 (FIRM) 洪泛区。FIRM 地图不仅为保险和洪泛区管理目的标出了洪水危险区,还提供了未来发生洪水的概率。为确定灾难性洪水的影响,规划人员采用了基于风险的方法,结合了 FIRM 100 年和 500 年洪泛区以及美国陆军工程兵团的 100 年和 500 年综合洪泛区研究。100 年和 500 年洪泛区相结合,创建了 100 年和 500 年事件边界。100 年一遇的洪水事件是指在任何一年发生概率为 1% 的洪水,而 500 年一遇的洪水事件在任何一年发生的概率为 0.2%。
世界面临着可能在全球范围内(即灾难性风险)严重损害或恢复人类文明的风险,甚至会导致人类的文明,甚至导致人类灭绝(即存在风险)。一些威胁,例如严重的大流行,在短时间内为大量死亡带来了潜力。核战争也可以做到这一点,同时也破坏了基础结构,经济和国家政府的职能。某些危害,例如气候变化或超级危害,有可能以威胁社会,人类健康和福利的稳定性的方式破坏自然环境和生态系统。AI中现有的且可能出现的进步可能侵蚀人类能力的基础。这些危害或威胁中的任何一个的极端版本都可以同时引入所有这些影响。2022年,国会通过了GCRMA,为政策制定者,紧急管理计划者和其他利益相关者提供了应对灾难性风险的战略。该立法的第一个要求是为国土安全部长和联邦紧急事务管理局(FEMA)管理者进行全球灾难和存在风险的全面评估。
引言。对外部噪声的极端敏感性是构建和操作大规模量子装置的主要障碍之一。量子误差校正(QEC)通过在更大的空间中编码量子信息来解决这一问题,以便可以检测和纠正错误(例如,参见参考文献 [1](第 10 章)和参考文献 [2])。现有的 QEC 方案主要关注局部和不相关的错误(或具有有限范围相关的错误),例如参见 [3,4]。然而,例如由于与玻色子浴的耦合 [5 – 7] ,长程关联会对 QEC 的性能产生负面影响 [8,9] 。最近有研究表明,宇宙射线事件 (CRE) 会在超导量子比特中引起灾难性的关联误差 [10 – 13]。高能射线撞击后,会产生声子并在基底中扩散。这些声子随后在超导材料中形成准粒子,进而引起量子比特衰变 [12] 。尽管这些事件很少见,但它们的影响却是毁灭性的,因为它们会导致芯片中所有量子比特发生快速相关弛豫( T 1 误差),从而基本上擦除编码的量子信息 [12] ,这对于可能需要数小时的长时间计算任务尤其有害 [14] 。此外,CRE 的不利影响不仅限于超导量子比特。半导体自旋量子比特 [15] 和基于马约拉纳费米子的量子比特 [16,17] 也分别受到由 CRE 引起的电荷噪声和准粒子中毒的影响。一种针对系统减少 CRE 影响的方法是改变设备的设计,例如,引入声子和准粒子陷阱 [18 – 20] 并增强设备中的声子弛豫 [17] 。在本信中,我们采用不同的方法,使用分布式纠错方案来检测和纠正