意大利主席先生仍然认为,人类控制是确保所有武器系统都遵守国际人道主义法的基础。尤其认为,我们认为有必要使用致命的力量并产生致命作用,以保留在人类手中。这是由于两个主要原因:首先,为了在IHL违规情况下保证问责制;其次,因为只有人类的判断才能执行与IHL攻击中的IHL原则,相称性和预防措施的应用有关的必要评估。
《某些常规武器公约》(CCW)有127个签署人,这是一个不包括66个联合国成员国的队列。CCW还将讨论限制为国家之间的战争(国际人道主义法)。因此,论坛在很大程度上忽略了道德问题,侵犯人权的行为和对非国家武装团体的扩散或这些武器可以促进未来种族灭绝的方式。尽管在发展共同的理解方面取得了进展,但长期以来,某些州利用了CCW的共识要求阻止了进步。
《某些常规武器公约》(CCW)有127个签署人,这是一个不包括66个联合国成员国的队列。CCW还将讨论限制为国家之间的战争(国际人道主义法)。因此,论坛在很大程度上忽略了道德问题,侵犯人权的行为和对非国家武装团体的扩散或这些武器可以促进未来种族灭绝的方式。尽管在发展共同的理解方面取得了进展,但长期以来,某些州利用了CCW的共识要求阻止了进步。
2。该集团的授权是由2023年的一定武器公约(CCW)举行的2023年会议决定的。会议决定:“与文档CCW/CONC.V/10的第五次审查会议上的决定1在第五次审查会议上建立的致命自治武器系统领域中的开放式政府专家的工作,以遵守文件CCW/CCCW/CONC.V/2,以持续的建议,以此来遵守,以继续< 在公约的目标和目的的背景下,小组应通过共识进一步考虑和制定一组乐器要素,而不必妨碍其性质,以及其他可能的措施,以解决致命的自主武器系统领域中新兴技术的措施,并考虑到范围内的范围,并考虑了其他与其他方面的范围,以实现范围,并在范围内列出了其他方面的范围。在致命的自主武器系统领域,基于该小组的建议和结论,并在法律,军事和技术方面提出专业知识。” (CCW/MSP/2023/7,第20段)在公约的目标和目的的背景下,小组应通过共识进一步考虑和制定一组乐器要素,而不必妨碍其性质,以及其他可能的措施,以解决致命的自主武器系统领域中新兴技术的措施,并考虑到范围内的范围,并考虑了其他与其他方面的范围,以实现范围,并在范围内列出了其他方面的范围。在致命的自主武器系统领域,基于该小组的建议和结论,并在法律,军事和技术方面提出专业知识。” (CCW/MSP/2023/7,第20段)
2。该集团的授权是由2023年的一定武器公约(CCW)举行的2023年会议决定的。会议决定:“与文档CCW/CONC.V/10的第五次审查会议上的决定1在第五次审查会议上建立的致命自治武器系统领域中的开放式政府专家的工作,以遵守文件CCW/CCCW/CONC.V/2,以持续的建议,以此来遵守,以继续< 在公约的目标和目的的背景下,小组应通过共识进一步考虑和制定一组乐器要素,而不必妨碍其性质,以及其他可能的措施,以解决致命的自主武器系统领域中新兴技术的措施,并考虑到范围内的范围,并考虑了其他与其他方面的范围,以实现范围,并在范围内列出了其他方面的范围。在致命的自主武器系统的领域,建立在上在公约的目标和目的的背景下,小组应通过共识进一步考虑和制定一组乐器要素,而不必妨碍其性质,以及其他可能的措施,以解决致命的自主武器系统领域中新兴技术的措施,并考虑到范围内的范围,并考虑了其他与其他方面的范围,以实现范围,并在范围内列出了其他方面的范围。在致命的自主武器系统的领域,建立在
8 UNGA分辨率A/RES/78/241,pp 1。9,例如,CCW/GGE.1/2023/2 Subparas 21(a)和22; CCW/MSP/2019/9(GGE确认的指导原则),Subpara。 (a)。 10 UNGA分辨率A/RES/78/241,pp 3。 11“我们的共同议程政策简介9:和平的新议程”,第1页。 25。 12关于使用某些常规武器的禁令或限制的公约,这些武器可能被视为过度伤害或具有不加区分的效果(CCW),序言。 13宣言在战争时期放弃使用爆炸性弹丸400克,圣彼得堡,1868年11月29日,圣彼得堡。 14首先出现在1899年《海牙公约》(II)的序言中;如今,《马滕斯条款》的版本已发现许多国际条约。 除了其他协议I外,还请参见有关谴责日内瓦公约的常见文章,即 第一日内瓦公约(GC I),第63条;第二公约(GC II),第62条;第三公约(GC III),第142条;第四公约(GC IV),第158条;以及其他协议II,序言,第1段。 4。 另请参见《某些常规武器公约》(1980年),序言,第1段。 5,以及《集群弹药公约》(2008年),序言,第1段。 11。 在其他条约中也可以找到 Martens条款的要素;参见《日内瓦气体协议》(1925年),序言,第1-3段;生物武器大会(1972),序言,第1段。 9;反人工矿山禁令公约(1997),序言,第1段。 8; ICC法规(1998),序言,第2段。 11。9,例如,CCW/GGE.1/2023/2 Subparas 21(a)和22; CCW/MSP/2019/9(GGE确认的指导原则),Subpara。(a)。10 UNGA分辨率A/RES/78/241,pp 3。11“我们的共同议程政策简介9:和平的新议程”,第1页。 25。12关于使用某些常规武器的禁令或限制的公约,这些武器可能被视为过度伤害或具有不加区分的效果(CCW),序言。13宣言在战争时期放弃使用爆炸性弹丸400克,圣彼得堡,1868年11月29日,圣彼得堡。14首先出现在1899年《海牙公约》(II)的序言中;如今,《马滕斯条款》的版本已发现许多国际条约。除了其他协议I外,还请参见有关谴责日内瓦公约的常见文章,即第一日内瓦公约(GC I),第63条;第二公约(GC II),第62条;第三公约(GC III),第142条;第四公约(GC IV),第158条;以及其他协议II,序言,第1段。4。另请参见《某些常规武器公约》(1980年),序言,第1段。5,以及《集群弹药公约》(2008年),序言,第1段。11。Martens条款的要素;参见《日内瓦气体协议》(1925年),序言,第1-3段;生物武器大会(1972),序言,第1段。9;反人工矿山禁令公约(1997),序言,第1段。8; ICC法规(1998),序言,第2段。11。2;以及关于禁止核武器的条约(2007年),序言,第1段。
OAAS 豁免参与者的后备人员配备计划 所有接受个人援助服务 (PAS) 的社区选择豁免 (CCW) 参与者和接受直接服务提供商 (DSP) 的长期个人护理服务 (LT-PCS) 的成人日间保健 (ADHC) 豁免参与者均需填写此表。
本报告探讨了致命自主武器的人类控制问题,这是联合国在《特定常规武器公约》论坛讨论中关注的重要问题。我们根据美国近期行动的经验教训和最佳实践来分析这一问题。基于这一分析,我们主张为使用武力建立人类控制的更广泛框架。本报告建议,目前侧重于过程考虑(例如人类控制)的《特定常规武器公约》讨论应侧重于结果,即减轻意外交战。这样可以更全面地考虑致命自主武器的益处和风险,并更好地管理风险。本报告还介绍了可以共同作为使用致命自主武器安全网的最佳实践。报告最后提出了具体建议,说明国际社会如何更有效地应对致命自主武器的意外交战风险。
重要的是,欧安组织关于人类控制和武器化人工智能的政治宣言或指南不会破坏或否定《特定常规武器公约》的努力,而会在此基础上进一步发展。将讨论转向武器化人工智能的当前影响而不是“杀手机器人”未来的潜在影响将有助于减轻这些技术固有的风险。这将表明,特别是在政治不信任的氛围中,达成共识是可能的。虽然《特定常规武器公约》的辩论仍在继续,但欧安组织参与国武装部队进一步自主的作战趋势已成为现实。与使用武器化人工智能相关的实践有可能影响战争规范。然而,这种轨迹并非不可避免,只要采取正确的方法,一项包含人类控制共同定义的政治宣言将是一个现实的成就。
2 红十字国际委员会,红十字国际委员会向《特定常规武器公约》致命自主武器系统政府专家组发表的声明,日内瓦,2019 年 3 月 25 日至 29 日。3 同上。另请参阅:红十字国际委员会,红十字国际委员会向《特定常规武器公约》致命自主武器系统政府专家组发表的声明,日内瓦,2018 年 4 月 9 日至 13 日和 8 月 27 日至 31 日。N. Davison,“国际人道主义法下的自主武器系统”,联合国裁军事务厅,《致命自主武器系统观点》,联合国裁军事务厅(UNODA)不定期论文,第30,2017 年 11 月,第5-18 页:https://www.icrc.org/en/document/autonomous-weapon-systems-under-international-humanitarian-law。红十字国际委员会,红十字国际委员会关于自主武器系统的观点,2016 年 4 月 11 日:https://www.icrc.org/en/document/views-icrc-autonomous-weapon-system 。4 红十字国际委员会,伦理与自主武器系统:人类控制的伦理基础?,专家会议报告,2018 年 4 月 3 日:https://www.icrc.org/en/document/ethics-and-autonomous-weapon-systems-ethical-basis-human-control 。5 红十字国际委员会,《人类控制的要素》,工作文件,《某些常规武器公约》(CCW)缔约方会议,CCW/MSP/2018/WP.3,2018 年 11 月 20 日。6 会议“自主性、人工智能和机器人:人类控制的技术方面”于 2018 年 6 月 7 日至 8 日在日内瓦红十字国际委员会(ICRC)人道主义中心举行。感谢以下专家的参与:Chetan Arora、Subhashis Banerjee(印度理工学院德里分校,印度);Raja Chatila Chatila(智能系统与机器人研究所,法国);Michael Fisher(利物浦大学,英国);François Fleuret(洛桑联邦理工学院(EPFL),瑞士); Amandeep Singh Gill(印度常驻日内瓦裁军谈判会议代表);Robert Hanson(澳大利亚国立大学,澳大利亚);Anja Kaspersen(联合国裁军事务厅,日内瓦办事处);Sean Legassick(DeepMind,英国);Maite López-Sánchez(巴塞罗那大学,西班牙);Yoshihiko Nakamura(东京大学,日本);Quang-Cuong Pham(南洋理工大学,新加坡);Ludovic Righetti(纽约大学,美国);Kerstin Vignard(联合国裁军研究所,UNIDIR)。报告由 Neil Davison 编写。红十字国际委员会的代表包括:凯瑟琳·拉万德 (Kathleen Lawand)、尼尔·戴维森 (Neil Davison)、内塔·古萨克 (Netta Goussac) 和卢卡斯·哈夫纳 (Lukas Hafner)(法律司武器科);洛朗·吉塞尔 (Laurent Gisel) 和卢卡斯·奥莱尼克 (Lukasz Olejnik)(法律司专题科);以及萨莎·拉丁 (Sasha Radin)(法律和政策论坛)。