当前趋势表明,人工智能 (AI) 越来越多地融入到一系列军事实践中。有人认为这种融合有可能改变战争方式 (Horowitz 和 Kahn 2021;Payne 2021)。在这种框架下,学者们开始探讨人工智能融入战争和国际事务的影响,具体涉及战略关系 (Johnson 2020)、组织变革 (Horowitz 2018, 38–39)、武器系统 (Boulanin 和 Verbruggem 2017) 和军事决策实践 (Goldfarb 和 Lindsay 2022)。这项工作在美国背景下尤其重要。联合人工智能中心的成立、最近成立的首席数字和人工智能官办公室,以及将人工智能纳入军事指挥实践和武器系统的愿望,都表明人工智能可能会重塑美国国防机构的各个方面。
Vincent Boulanin 博士(法国)是高级研究员,领导 SIPRI 对新兴军事和安全技术的研究。他的重点是与武器系统的自主性开发、使用和控制以及人工智能 (AI) 的军事应用有关的问题。他定期介绍他和 SIPRI 的工作,并与政府、联合国机构和国际组织、研究机构和媒体进行交流。在 2014 年加入 SIPRI 之前,他在巴黎社会科学高等研究院获得了政治学博士学位。他最近的出版物包括《人工智能、战略稳定和核风险》(SIPRI,2020 年合著者)、《武器系统自主性的限制:确定人类控制的实际要素》(SIPRI/ICRC,2020 年合著者)。
4参见,例如:Daniele Amoroso和Guglielmo Tamburrini,“使人类对武器的控制“有意义”(2019年)ICRAC报告; Vincent Boulanin等人,“武器系统中自治的限制:确定人类控制的实际要素”(2020)SIPRI报告;丽贝卡·克鲁特(Rebecca Crootof),“有意义的人类控制”(2016)30 Temple International and Comparative Law Journal 53; Merel Ekelhof,“自动武器:操作有意义的人类控制”(2018)ICRC博客;迈克尔·霍洛维茨(Michael C Horowitz)和保罗·沙尔(Paul Scharre),“武器系统中有意义的人类控制:底漆”(2015)CNAS工作文件; Thilo Marauhn,“有意义的人类控制 - 国际法政治”中的《沃尔夫·海因特·冯·海内格》,罗伯特·弗劳(Robert Frau)和塔西洛·辛格(Robert Frau)和塔西洛·辛格(Tassilo Singer),《战争的非人性化:新武器技术的法律意义》(Springer 2018),2018年,207-218,207-218。
作者感谢众多官员和专家(美国国内和国外)在本项目过程中分享他们的观点。他们特别感谢 Joel Wuthnow、Kevin Pollpeter、J. Michael Dahm、Jacquelyn Schneider、Adam Segal 和 James Acton 为本项目的工作组提供了深刻的演讲。还要感谢 Vincent Boulanin、Paul Scharre 和 Lisa Curtis 对手稿的专业评审,以及 Maura McCarthy 的细致编辑。最后,如果没有 CNAS 众多同事的帮助,本文不可能完成,其中包括 Rebecca Wittner、Melody Cook、Rin Rothback、Allison Francis、Jake Penders、Emma Swislow 和 Lesly Melendez。此处提出的观点不代表 CNAS 或任何其他组织的观点,作者对任何事实、分析或遗漏的错误负全部责任。本报告得到了开放慈善组织的慷慨支持。
4 Rafael Loss 和 Joseph Johnson,“人工智能会危及核威慑吗?”War on the Rocks,2019 年 9 月 19 日,https://warontherocks.com/2019/09/will-artificial-intelligence-imperil-nuclear-deterrence/。5 Michael C. Horowitz、Paul Scharre 和 Alexander Velez-Green,“稳定的核未来?自主系统和人工智能的影响,”ArXiv.org,2019 年 12 月,第 2 页,https://arxiv.org/ftp/arxiv /papers/1912/1912.05291.pdf 6 Edward Geist 和 Andrew J. Lohn,“人工智能如何影响核战争风险?“兰德公司,2018 年,https://www.rand.org/content/dam/rand/pubs/perspectives/PE200/PE296/RAND _PE296.pdf。7 斯德哥尔摩国际和平研究所 (SIPRI),“人工智能对战略稳定和核风险的影响,第一卷:欧洲-大西洋视角”,编辑。Vincent Boulanin,2019 年 5 月,https:// www.sipri.org/sites/default/files/2019-05/sipri1905-ai-strategic-stability-nuclear-risk.pdf。
人工智能技术在军事决策过程中的普及似乎正在增加。起初,人工智能在军事领域的应用主要与武器系统有关,这些武器系统通常被称为自主武器系统 (AWS),可以在无需进一步人工干预的情况下识别、跟踪和攻击目标 (红十字国际委员会 [ICRC] 2021)。世界各地的军队已经使用了武器系统,包括一些巡飞弹,这些武器系统结合了人工智能技术来促进目标识别,通常依赖于计算机视觉技术 (Boulanin 和 Verbruggen 2017;Bode 和 Watts 2023)。虽然巡飞弹通常在人类批准下操作,但似乎有可能在没有人为干预的情况下动态施加武力。事实上,俄罗斯在乌克兰战争的各种报道表明,乌克兰军队在作战的最后阶段使用巡飞弹,在未经人类批准的情况下释放武力 (Hambling 2023, 2024)。这些发展有力地强调了人们长期以来日益增长的担忧,即在使用基于人工智能的系统时,人类在武力决策中所起的作用正在逐渐减弱。
