人工智能 (AI) 的快速发展引发了专家、政策制定者和世界领导人对日益先进的人工智能系统可能带来灾难性风险的担忧。尽管已经分别详述了许多风险,但迫切需要系统地讨论和说明潜在危险,以便更好地指导减轻这些风险的努力。本文概述了灾难性人工智能风险的主要来源,我们将其分为四类:恶意使用,即个人或团体故意使用人工智能造成伤害;人工智能竞赛,即竞争环境迫使参与者部署不安全的人工智能或将控制权交给人工智能;组织风险,强调人为因素和复杂系统如何增加灾难性事故发生的可能性;流氓人工智能,描述了控制比人类聪明得多的代理的固有难度。对于每一类风险,我们都会描述具体的危害,提供说明性故事,设想理想情景,并提出减轻这些危险的实用建议。我们的目标是促进对这些风险的全面了解,并激发集体和主动的努力,以确保以安全的方式开发和部署人工智能。最终,我们希望这将使我们能够实现这项强大技术的好处,同时最大限度地降低发生灾难性后果的可能性。1
A — 使命宣言 通过应用财政部独特的政策、执法、情报和监管工具来识别、瓦解和打击恐怖分子、犯罪分子和其他对美国构成国家安全威胁的人,并保护美国和国际金融体系免受非法行为者的滥用,从而增强国家安全。 B — 请求摘要 TFI 请求 2.12059 亿美元,比 2021 财年运营计划的水平增加 3705.9 万美元。TFI 请求这些额外资源继续投资于其员工。随着对 TFI 权力的依赖不断增加,TFI 人员的相应增长以及对安全系统的需求增加需要在任务支持领域进行额外投资。该请求还促进了有针对性的投资,以加强美国的国家安全,包括为机密系统技术、制裁工作、部门范围内的反情报工作以及立法授权的盗贼统治奖励试点计划提供资金。 2023 财年预算优先为财政部的定向金融工具提供资金,这些工具可保护美国和国际金融体系免受滥用,以及打击支持恐怖分子、武器扩散者、有组织的跨国犯罪、流氓政权和其他威胁的金融网络。1.1 – 拨款明细表
授予自然资源委员会,CPL Upthegrove和所有其他县级官员,以及Clark County Comp Plan -Plan -Forest损失占农业,林业和土地使用的75%。来自AFLU类别。这是所有县计划中都需要考虑的排放的很大一部分。不像涉水者那样解决森林损失,这是克拉克县子孙后代的一巴掌,破坏了有意义的国家政策。克拉克县社区已经反对拍卖涉水者出售 - 但是尽管有正式要求,但DNR还是对DNR政策进行了混淆和操纵的政策,以继续对人民意志进行拍卖。这种流氓行动直接违反了华盛顿宪法,该宪法规定,所有公共土地必须以使所有居民受益的方式进行管理。科学研究证实了成熟,结构复杂的森林(如涉水拍卖)的必要性和重要性 - 对于缓解气候至关重要。很方便地,没有将这种经过同行评审的科学纳入为SEPA批准过程的政策和程序中。像Dabbler这样的森林在该县提出的任何气候缓解计划中都是必不可少的。均用于碳固存和生物多样性。
人工智能 (AI) 的快速发展引发了专家、政策制定者和世界领导人对日益先进的人工智能系统可能带来灾难性风险的担忧。尽管已经分别详述了许多风险,但迫切需要系统地讨论和说明潜在危险,以便更好地指导减轻这些风险的努力。本文概述了灾难性人工智能风险的主要来源,我们将其分为四类:恶意使用,即个人或团体故意使用人工智能造成伤害;人工智能竞赛,即竞争环境迫使参与者部署不安全的人工智能或将控制权交给人工智能;组织风险,强调人为因素和复杂系统如何增加灾难性事故发生的可能性;流氓人工智能,描述了控制比人类聪明得多的代理的固有难度。对于每一类风险,我们都会描述具体的危害,提供说明性故事,设想理想情景,并提出减轻这些危险的实用建议。我们的目标是促进对这些风险的全面了解,并激发集体和主动的努力,以确保以安全的方式开发和部署人工智能。最终,我们希望这将使我们能够实现这项强大技术的好处,同时最大限度地降低发生灾难性后果的可能性。1
从创新经济学领域中汲取见解,我们讨论了塑造生成AI进展的可能具有竞争性的环境。我们分析的核心是可容纳性的概念 - 行业中的公司是否能够控制其创新所产生的知识以及互补的资产 - 是否有效进入都需要访问有效的公司可以访问的专业基础设施和能力。虽然AI基金会模型的快速改进有望在经济的广泛部门之间产生变革性的影响,但我们认为,对互补资产的严格控制可能会导致集中的市场结构,就像过去的技术动荡事件中一样。我们建议现任公司可能限制进入的可能道路,将新移民局限于下属角色并扼杀广泛的部门创新。我们以关于如何避免这种寡头的未来的猜测得出的结论。旨在分数化或促进共同访问互补资产的政策干预措施可能有助于保留竞争和激励措施,以扩展生成的AI前沿。具有讽刺意味的是,充满活力的开源AI生态系统的最佳希望可能取决于“流氓”技术巨头的存在,他们可能会选择与较小公司的开放性和互动,作为对其他现有企业的战略武器。
Allison,Audrey,航空航天公司高级政策分析师 Anderson,Joseph,SpaceLogis4cs,LLC 副总裁 Arney,Dale,航空航天工程师,美国国家航空航天局兰利研究中心 Bandini,Flavio,产品线经理,泰雷兹 Barnhart,David,Arkisys,Inc. 首席执行官 Barry,Kevin,LightBridge Strategic Consul4ng 联合创始人 Barton,Michael,ai solutions,Beam,Jon,Rogue Space Systems Corpora4on 首席执行官 Bienhoffi,Dallas,Offi-World,Inc. 空间系统架构师 Birk,Ronald,航空航天公司空间企业发展理事会首席总监 Blackerby,Chris,Astroscale Holdings,集团首席运营官 Breckenridge,Carter,iBOSS 顾问 Bull,MaL,英国航天局 In Orbit RegulaBon 负责人 BURGOTT, KELLY,美国政府问责局分析师 Caiazzo,Antonio,欧洲航天局清洁空间系统工程师 Campbell,Alan,Draper 空间系统总监 Carlisle,Robert,Argo Space 首席执行官 Christensen,Marc,Oceaneering Space Systems 工程项目经理 Collins,John,Actalent Government Services 业务发展经理 Cotuna,Adina,欧洲航天局系统工程师 Coultrup,Alex,Starfish Space 低地球轨道业务与政策总监 Cummings,Laura,Greenberg Traurig,LLC 助理 Cunningham,MaLhew,Lunexus Space 联合创始人 Cybul,Kyle,Clean Orbit Founda4on 联合创始人 Dailey,Nathaniel,MITRE 空间计划开发和 IntegraBon 首席战略师 Daneman,MaL,付费电视、商业卫星通讯记者,Communica4ons Daily Davis,Kiel,Opterus Research and Development 总裁 Davis,Chris4an,合伙人, Akin Gump Strauss Hauer & Feld LLP Day 、Craig、AIAA 活动策略高级总监 DiGiusto 、Hope、Stellar Solu4ons 商业副总裁 Diorio 、James、Apech Labs 总裁 Dobrowolski 、Marcin、PIAP Space 首席执行官
车辆、飞机和卫星通常使用控制总线来实现设备和微控制器之间的有效通信。例如汽车中的控制器局域网 (CAN) 总线、商用飞机中使用的航空无线电公司 429 (ARINC 429) 标准以及军用飞机中使用的 MIL-STD-1553。这些总线标准是在大约 40 年前开发和实施的,当时人们认为系统固有的气隙特性可以提供足够的安全性。随着时间的推移,这一假设已被证明是错误的,气隙系统 (例如 Stuxnet) 中发生了大量漏洞。车辆和飞机的一个问题可能是安装恶意设备的可能性 (可能是通过维修技术人员),这反过来可能会破坏车辆数据总线的正常运行。先前的研究已经调查了通过 MIL-STD-1553 总线模拟波形的细微变化来使用设备指纹识别,但需要额外的硬件和软件来收集和处理传输的消息。在本文中,我们探讨了利用商用现成航空电子数据总线接口卡的有机功能来确定新设备是否已安装或是否伪装成其他设备的可行性。由于飞机上已有的设备正在使用,因此可以轻松实现此附加安全功能,而不会影响尺寸、重量或功率要求。
摘要 人工智能将改变我们生活的世界的许多方面,包括公司的治理方式。它可能会提高许多效率和改进,但也存在潜在的危险,包括对第三方造成有害影响的威胁、歧视性做法、数据和隐私泄露、欺诈行为甚至“流氓人工智能”。为了应对这些危险,欧盟发布了“专家组关于可信人工智能的政策和投资建议”(指南)。该指南从尊重人类自主、预防伤害、公平和可解释性四大基本支柱中提出了七项原则。如果由企业实施,将对公司治理产生巨大影响。该指南考虑了道德和法律交叉点的基本问题,但由于指南仅涉及前者而没有(太多)提及后者,因此它们的实际应用对企业来说具有挑战性。此外,虽然这些指南提倡许多积极的公司治理原则——包括以利益相关者为导向(“以人为本”)的公司宗旨以及多样性、非歧视性和公平性——但很明显,它们的普遍性留下了许多未解答的问题和担忧。在本文中,我们研究了《指南》对选定的公司法和治理问题的潜在意义和影响。我们的结论是,需要更具体说明其中的原则如何与公司法规则和治理原则相协调。然而,尽管《指南》存在不完善之处,但在更严格的立法手段出现之前,它们为指导企业建立值得信赖的人工智能提供了一个有用的起点。
我想说,任何人只要客观看待现有证据,就会得出这样的结论:是的,UFO 是真实存在的;是的,确实有与 UFO 有关的机密项目;是的,确实有由此衍生的能量和推进系统;是的,其中一些源自外星;它们都不是敌对的;是的,确实有项目成功地基于这些设备建造了能量和反重力推进系统,并且它们非法“保密”。我说非法是因为我知道美国总统、国会的主要成员以及国会的主要委员会被故意欺骗,并被拒绝参与这些项目。因此,你无法将它们解释为“合法构成”的项目。它们是非法的、流氓项目。因此,我们认为,我们所确认的证人以及了解这些技术的科学家应该认为自己可以“自由而明确地”提供信息;国家安全法和其他非法条款的使用在这一特定情况下是非法的,他们没有控制法律权力。— Steven M. Greer,医学博士,急诊室医生,CSETI(地外智能研究中心)创始人和国际主任,最近成为“披露计划”(www.disclosureproject.org)的关键人物。上述声明是 2001 年 10 月 16 日接受《SPECTRUM》采访时发表的,该采访将在本专题报道的后续部分中发表。
将一项政策视为有害会导致对其道德谴责。然而,这种有害性可以通过建立在可用、可访问和相关的话语之上来构建和协商,从而导致不同的道德立场。本研究考察了个人在对一项有争议的政策——菲律宾总统杜特尔特的禁毒战争(当地称为“tokhang”)进行道德推理时如何构建和协商危害。我们进行了主题分析,关注话语,分析了对 12 名菲律宾年轻人的采访,以二元道德理论为起点,理解危害的构建。关于“tokhang”的推理表明,作为道德立场基础的故意行为者和脆弱受害者的不同构造。对禁毒战争的道德谴责强调了受害者的脆弱性以及政府和警察作为行为者的故意性。另一方面,该政策的道德辩护将禁毒战争受害者构建为行为者和有罪者,将警察构建为潜在的脆弱受害者,他们按照协议为自己辩护,而流氓行为者则独立于政策行事。当伤害的因果关系不明确时,立场模糊也是可能的。这些建构和协商建立在城市青年社会政治背景下更广泛的话语之上,个人背景和特征导致某些话语的可及性和相关性以及由此产生的道德立场存在差异。