第二,场景练习反映了有关AWS设计和使用限制的广泛观点。共享了确保国际人道主义法(IHL)遵守国际人道主义法(IHL)的重要性和对IHL违规行为的责任的重要性,但这些假设中流动的局限性是广泛争议的,显着的分歧是目标,环境使用环境和某些数据过程方法。差异的关键来源源于不同的基本原理和关注,这些理由和关注者为参与者的观点提供了理解的意见,从不同的IHL阅读到植根于不同人权,道德,安全或其他政策优先级的更广泛价值观。然而,尽管更广泛的担忧,尤其是与伦理有关的问题,通常被用来绘制线条,但它们很少被深入解释。为了提出讨论,各州可以更详细地详细阐述其道德问题的性质,并探讨这些问题在政策讨论中应发挥的作用。
秘书长征求会员国和观察员国对致命自主武器系统的意见,并向大会第七十九届会议提交一份反映所收到的所有意见的实质性报告,并附上载有这些意见的附件,供会员国进一步讨论。日本就致命自主武器系统提交以下意见,以协助编写报告并向根据《禁止使用某些常规武器公约》举行的致命自主武器系统领域新兴技术缔约方政府专家小组(LAWS GGE)讨论作出贡献。一、一般意见 1. 日本致力于维护和加强以法治为基础的自由开放的国际秩序,使所有人都能享受和平、稳定和繁荣,并致力于促进外交,实现一个保护人类尊严的安全世界。本着这些目标,日本积极参与军备控制和裁军努力。由于新兴技术的快速发展对军事产生了重大影响,LAWS 已成为军控和裁军领域的关键问题之一。为应对新兴技术的进一步发展,努力明确 LAWS 的规范和操作框架至关重要,同时考虑其与现有国际法,特别是国际人道主义法 (IHL) 的关系。日本重申其致力于积极和建设性地参与讨论,以便通过制定有关 LAWS 的国际规则为国际社会的稳定做出贡献。2. 应全面审查新兴技术的军事用途,充分了解其风险和利益,并兼顾人道主义考虑和安全角度。在审查过程中,日本重视以负责任的方式进行新兴技术的军事用途,坚持“以人为本”原则,确保可靠性和可预测性。日本还支持以下观点:国际人道法的义务适用于所有武器系统,包括致命性自主武器系统;如果武器系统不能按照国际人道法使用,则不得使用;其他武器系统应受到必要的限制,以确保遵守
日内瓦安全政策中心是一个国际基金会,在和平与安全领域拥有30年的经验。通过对话,高管教育和研究努力,有助于建立更宁静的世界。面对全球安全环境的恶化,GCSP担心新兴技术在加剧和创造国际安全问题中可以发挥的作用。根据第78/241号决议“致命的自动武器系统”,由大会于2023年12月22日采用,GCSP使该提交的提交利用其在国际安全,裁军和新兴技术领域的研究活动以及专家贡献者的投入。它反映了GCSP关于致命的自主武器系统(法律)和相关监管工作的发展和部署的轨迹的一些关键问题。
摘要:致命的自主武器系统(法律)已成为军事技术中最重要的进步之一,利用人工智能(AI)和机器学习来执行无直接人类控制的任务。随着这些制度成为现代战争的核心,他们就遵守国际人道主义法(IHL)和国际人权法(IHRL)提出了关键问题。本文介绍了围绕法律的法律和道德辩论,特别关注政府法律专家(GGE法律)中的讨论。我们分析这些技术是否可以在维持其运营功效的同时遵守基本人权。通过将自主频谱框架应用于现实世界情景,该研究既突出了法律的战略优势,也凸显了非人性化战争的风险。需要强大的法律框架以确保问责制和人类的监督仍然至关重要。
必须首先理解自主系统的含义。正如我们所见,关于开发和使用 LAWS 的合法性和可取性的大部分分歧都是由对自主或完全自主武器系统到底意味着什么的分歧(通常没有明说)引起的。正如 Paul Scharre 和 Michael Horowitz 在他们的道德自主工作论文中所解释的那样,“对于‘自主武器’的构成,没有国际上公认的定义,这使得就这一主题进行清晰的沟通更加困难……这种术语不明确的情况因一些人在就如何定义这一类别达成共识之前就呼吁对自主武器进行监管或禁止而进一步加剧。因此,目前,定义与技术本身的争论息息相关……基本术语不明确本身就是灾难的根源。”2
9 - 定义稳定的武器系统:开发要求较低的武器系统。筹备阶段确定,根据分配资金确定运营能力。然而,稳定定义武器系统并不是受限武器系统。作为影响所有系统的现代化的一部分,它可以被重新归类为具有不断发展的定义的军备系统。10 - 联合作战(OE):是协调多个相互依赖的武器系统的控制的程序作战。操作响应操作需求一致性的请求。11 - 结构操作(OS):是一种武装操作,仅通过向系统提供受控技术贡献来影响系统的技术性质,而不会影响武器的程序结构或条令。
在保护社会免受暴力,执行正义和确保人民权利的重要角色。5最终,符合人权的警务是建立在信任和直接社区参与的基础上的,尤其是在贫困的公共机构的信任往往是有理由脆弱的被剥夺的社区中。使用自主武器系统在执法中的使用有根本改变这种关系的风险,带来了工具,使执法部门与公众的互动中最复杂的领域(对个人的致命和致命力量)的使用 - 对个人的同意削弱了社区的同意,以实现符合人权的政权。根据IHRL法律和标准,人类代理机构和判断是人为机构和判断。使用武力的决定,无论是致命的还是更致命的,只能由人权法和人权法做出,“强烈强调人类的推理和互动”。6此外,关键的人权执法标准的语言明确以独特的人类能力为基础。例如,BPUFF引用了“警察道德”和“与使用武力相关的道德问题”的概念 - 暗示人类的判断和道德生活的概念 - 而CCLEO则强调为社区和保护人类尊严提供服务。7根据Bpuff的说法,人类进行交流,降级,说服和谈判的能力是避免或最小化武力使用的核心策略 - 管理执法官员合法使用武力的核心思想。问责制无意义的人类控制的武力可能会产生“问责真空”。如果认为有必要的力量,那么微妙的人类判断,涉及对意图的复杂情况评估,威胁水平和群体动态对于确定合法反应至关重要。考虑到情感,动机,心理和后勤因素,要评估生命和肢体威胁的迫在眉睫的情感,激励性,心理和后勤因素,因此部署故意致命的武力的决定是极高的阈值,并且特别细微而复杂。8相反,根据联合国人权委员会对生命权的一般评论36的说法,任意剥夺生命包含“不公正”的要素 - 一种本质上的人类质量 - 缺乏可预测性,这是围绕AWS律师的辩论中的关键概念。9可以预先编程以解决某些情况的想法与执法人员必须不断评估给定情况的观念背道而驰,以便在可能的情况下避免或至少最大程度地减少使用武力的使用。是一台编程的机器,可以使这些持续的,微调的,迭代的评估 - 实时适应不断变化的情况 - 这将使它在不同的意义上成为问题:适应环境提示的能力,尤其是诸如感知的行为变化之类的微妙指标 - 会使机器固有地固有地放置在有意义的人类控制之外。10最终,在决定使用武力的决定中,AWS不能用来代替必不可少的人类判断;并且将无法以试图最大程度地减少伤害,防止生命损失或评估致命力量的必要性和相称性的方式在给定时刻是合理的。11,这源于以下事实:国际人权法可以约束国家和个人而不是机器 - 并试图将其责任考虑,以及在使用在有意义的人类控制之外运行的机器时,法律造成人类责任的困难。第12条根据BPUFF,政府和执法机构的原则24,“应确保高级官员在知道或应该知道的情况下承担责任,或者知道执法人员在其指挥下的执法人员正在采取措施,或者诉诸于武力和枪支的非法使用,并且他们没有采取所有措施来防止使用这些措施来抑制或报告这种措施。”13然而,从决策施加致命或少的致死力的距离
•根据国际法,包括国际法和国际人权法,以及道德原则,支持具有法律约束力的工具的紧急谈判,以规范自主武器系统,并采用特定的禁止和法规; •努力通过包容性和参与式方法来加强区域合作和伙伴关系,并在自主武器系统上提高共同立场,这些立场为建立一种新的具有法律约束力的工具的全球范围促进了更广泛的全球性; •促进与国际组织,民间社会,学术界和其他利益相关者的建设性对话和合作,以有效地应对自主武器系统所带来的挑战; •为了认可在自动武器系统上出现共同区域立场的过程,正如本次会议上通过的公报所阐明的那样,并承诺集体致力于实施其实施。
人工智能技术在军事决策过程中的普及似乎正在增加。起初,人工智能在军事领域的应用主要与武器系统有关,这些武器系统通常被称为自主武器系统 (AWS),可以在无需进一步人工干预的情况下识别、跟踪和攻击目标 (红十字国际委员会 [ICRC] 2021)。世界各地的军队已经使用了武器系统,包括一些巡飞弹,这些武器系统结合了人工智能技术来促进目标识别,通常依赖于计算机视觉技术 (Boulanin 和 Verbruggen 2017;Bode 和 Watts 2023)。虽然巡飞弹通常在人类批准下操作,但似乎有可能在没有人为干预的情况下动态施加武力。事实上,俄罗斯在乌克兰战争的各种报道表明,乌克兰军队在作战的最后阶段使用巡飞弹,在未经人类批准的情况下释放武力 (Hambling 2023, 2024)。这些发展有力地强调了人们长期以来日益增长的担忧,即在使用基于人工智能的系统时,人类在武力决策中所起的作用正在逐渐减弱。
Compass Call 是一种机载战术电子攻击武器系统,可破坏敌方指挥和控制通信、雷达和导航系统,以限制对手的战场协调。该武器系统通过阻止对手、其武器系统和控制网络之间传输重要信息来支持对敌方防空系统的压制。Compass Call 自 1981 年以来一直在 EC-130H 上提供攻击能力,现在正在跨平台安装到新的 EC-37B 平台上。BAE Systems 担任任务系统工程、集成和测试负责人以及任务系统主承包商。