《某些常规武器公约》(CCW)有127个签署人,这是一个不包括66个联合国成员国的队列。CCW还将讨论限制为国家之间的战争(国际人道主义法)。因此,论坛在很大程度上忽略了道德问题,侵犯人权的行为和对非国家武装团体的扩散或这些武器可以促进未来种族灭绝的方式。尽管在发展共同的理解方面取得了进展,但长期以来,某些州利用了CCW的共识要求阻止了进步。
超越常规动能武器的作战概念和物理能力,改进了战斗武器系统。基于激光的个人战斗枪械 (LCF) 由激光发生器和发射装置组成。隐蔽和快速打击通过最大限度地提高战斗人员的战斗力来提高战斗性能
1。引言目前是关于自动武器系统定义的广泛讨论。这次讨论的开端可以追溯到21世纪的第一个设备,包括自主武器的支持者(Arkin 2009),以及警告他们的人(Sparrow 2007)。讨论在2012年之后加剧了,当时美国国防部(美国国防部)发布了关于武器系统自治的3000.09指令,该指令已获得此类武器的定义。与《人权:人权观察》(HRW)的杀手机器人(HRW)的案件一起,这些文件对自主武器的定义以及与这些武器相关的道德和法律问题进行了广泛讨论。许多领域的军事和政府专家,科学家和专家都参与了讨论。自主武器系统的主题已成为红十字国际委员会(ICRC),联合国研究研究所(UNIDIR)的重要议程。
• 国际人道法和国际人权法的规则针对的是个人和集体。问责制是法律体系的核心,不能转移到机器身上。有效的治理对于避免问责制漏洞是必不可少的。 • 人类决策者的知情和道德参与是我们管理武力使用的法律框架的基础。正是它让人们对发生的结果负责。 • 关于 AWS 使用的法律判断需要充分了解武器系统、可能使用武器的环境条件及其预期结果。 • 无法充分理解或局限于特定环境的系统不能受到人类控制,因此与合法使用和问责制不相容。 • AWS 风险的严重性要求我们澄清现有法律规则的应用,并制定明确的禁令和法规,以保留使用武力的人为因素。 • AWS 提出了与国际人权法、人类尊严和基本道德原则有关的担忧,道德应该成为推动我们做出反应的力量。 • 道德一直是制定和发展战争行为法律的主要动力。 • 以人为目标是一个最紧迫的道德问题。此外,AWS 的功能是区分某些人群与其他人群,因此容易受到数据集和算法偏见问题的影响。 • 这种偏见问题反映了社会结构,可能会对已经边缘化的群体产生不成比例的影响,并导致严重错误。 • 武器系统自主性水平的提高也对国际和平与安全提出了严峻挑战。 • 距离和非人性化、降低使用武力的政治门槛的风险以及包括机器对机器交互在内的升级风险引发了进一步的担忧。 • AWS 可能在追究攻击责任方面带来挑战。AWS 进一步向非国家武装团体和其他暴力行为者扩散,可能会加剧武装冲突和执法中的安全风险。 • 在民用领域,各国和各地区已经制定了新的法律和监管制度,以解决人们的担忧,即在没有人类解释的情况下,自主决定伤害人们,可能会损害人类尊严。 • 国际人道法中的马尔顿条款承认,法律可以根据社会关切和公众良知的要求而发展,因此与 AWS 问题特别相关。 • 人工智能有可能从根本上改变我们与技术的关系,无论是好是坏。AWS 的挑战也是一个机会,通过其监管,为人工智能在社会中的作用建立共同的规范和护栏,以防止最负面的结果。• 我们有责任采取行动并制定保护人类所需的规则。
秘书长征求会员国和观察员国对致命自主武器系统的意见,并向大会第七十九届会议提交一份反映所收到的所有意见的实质性报告,并附上载有这些意见的附件,供会员国进一步讨论。日本就致命自主武器系统提交以下意见,以协助编写报告并向根据《禁止使用某些常规武器公约》举行的致命自主武器系统领域新兴技术缔约方政府专家小组(LAWS GGE)讨论作出贡献。一、一般意见 1. 日本致力于维护和加强以法治为基础的自由开放的国际秩序,使所有人都能享受和平、稳定和繁荣,并致力于促进外交,实现一个保护人类尊严的安全世界。本着这些目标,日本积极参与军备控制和裁军努力。由于新兴技术的快速发展对军事产生了重大影响,LAWS 已成为军控和裁军领域的关键问题之一。为应对新兴技术的进一步发展,努力明确 LAWS 的规范和操作框架至关重要,同时考虑其与现有国际法,特别是国际人道主义法 (IHL) 的关系。日本重申其致力于积极和建设性地参与讨论,以便通过制定有关 LAWS 的国际规则为国际社会的稳定做出贡献。2. 应全面审查新兴技术的军事用途,充分了解其风险和利益,并兼顾人道主义考虑和安全角度。在审查过程中,日本重视以负责任的方式进行新兴技术的军事用途,坚持“以人为本”原则,确保可靠性和可预测性。日本还支持以下观点:国际人道法的义务适用于所有武器系统,包括致命性自主武器系统;如果武器系统不能按照国际人道法使用,则不得使用;其他武器系统应受到必要的限制,以确保遵守
另一个要检查的领域是第36条评论的行为如何与确保在使用武力中保持适当的人类参与有关。从加拿大的角度来看,人类 - 不是机器 - 是对使用武力的原因。通过将人类参与从生命周期的一部分中删除,完全自主武器系统将使难以追踪决策的责任责任,这就是加拿大反对这种系统的原因之一。军事指挥官对在他们的指挥下发生的所有武力的用途负责,无论是由人类的下属还是机器。我们认为“参与”一词涵盖了人类的判断和人类控制。我们认为,武装冲突应该从根本上仍然是人类企业。良好实践的共享将是该领域的逻辑第一步。
有意义的人类对使用法律使用的有意义的控制权(请参阅下文),除其他外,以及根据1949年日内瓦官方I的Ardiɵonal方案I的法律审查,以确保该系统可以在国际法律中使用,以适当的培训,Miɵgaɵgga的测量和其他安全性。两种方法可以确保国际法律,尤其是IHL,将征服从开发中的法律完全应用于这些武器系统的使用。人类在使用武力中的作用是确保这种依从性的两种方法的关键因素。因此,一项在人类控制之外且没有精确且有限的任务框架(地理范围,目标等)运作的法律。)将在第1级禁止,因为它不能确保任何可持续的保证,即遵守国际法律和国际人道主义法。最后,禁止法律和法律法律的目的不应被视为阻碍技术创新的一种,而是要确保IHL既管理法律的制定和部署。
提交给联合国秘书长关于自动武器系统的报告草案2024年5月24日1)斐济共和国政府欢迎有机会提交其观点和建议,以考虑联合国秘书长,以响应“杀死自动武器系统的第78/241号决议”,以响应“杀人式武器系统”。决议要求从国家和利益相关者发出“解决人道主义,法律,安全,技术和道德观点”的“解决挑战和关注的方法”的意见。挑战和担忧2)作为一个太平洋小岛发展状态,我们深切关注与自主武器相关的严肃的道德,道德,法律,问责制,环境和安全问题,尤其是因为它们影响了全球南方和太平洋的国家。自主武器系统的开发和使用带来了重大风险,必须紧急解决。3)自主武器系统危及平民和战斗人员,可能以无法预测的方式升级冲突。这些系统挑战遵守国际法,包括国际人道主义法。使用制定生死决策的机器可能会破坏管理敌对行动和保护平民的规则。用机器过程替代人类判断会引起基本的道德问题。4)这些武器在全球范围内泛滥,非国家参与者访问并用于犯罪活动存在明显的危险。太平洋岛屿凭借其独特的脆弱性使这成为一个主要问题。自动武器落入非国家行为者手中的风险特别令人震惊,因为这可能导致不稳定和暴力增加。
•根据国际法,包括国际法和国际人权法,以及道德原则,支持具有法律约束力的工具的紧急谈判,以规范自主武器系统,并采用特定的禁止和法规; •努力通过包容性和参与式方法来加强区域合作和伙伴关系,并在自主武器系统上提高共同立场,这些立场为建立一种新的具有法律约束力的工具的全球范围促进了更广泛的全球性; •促进与国际组织,民间社会,学术界和其他利益相关者的建设性对话和合作,以有效地应对自主武器系统所带来的挑战; •为了认可在自动武器系统上出现共同区域立场的过程,正如本次会议上通过的公报所阐明的那样,并承诺集体致力于实施其实施。
日内瓦安全政策中心是一个国际基金会,在和平与安全领域拥有30年的经验。通过对话,高管教育和研究努力,有助于建立更宁静的世界。面对全球安全环境的恶化,GCSP担心新兴技术在加剧和创造国际安全问题中可以发挥的作用。根据第78/241号决议“致命的自动武器系统”,由大会于2023年12月22日采用,GCSP使该提交的提交利用其在国际安全,裁军和新兴技术领域的研究活动以及专家贡献者的投入。它反映了GCSP关于致命的自主武器系统(法律)和相关监管工作的发展和部署的轨迹的一些关键问题。