本文的目的是从国际法的角度了解相对较新的致命自动机器人和武器系统(LARS或法律)的领域,重点是人权遵守。最初,该主题成为2009年公众意识和讨论的主题,并很快获得了兴趣和批评。此类武器系统的发展同时升高了法律,道德,实用和道德问题。在没有针对他们的特定法律规定的情况下,本文应试图评估这种概念在多大程度上通过人道主义法的现有规定认为法律和道德理由。在任何情况下,由于法律提供了重要的福利,因此由于对人权,战斗外部和平民的影响,应在严重的法律保护下考虑它们。所有这些好处都必须以道德原则和法律规定为指导,无论是已经应用的,还是新的,可以更适合这一特定领域的规定。
摘要:致命的自主武器系统(法律)已成为军事技术中最重要的进步之一,利用人工智能(AI)和机器学习来执行无直接人类控制的任务。随着这些制度成为现代战争的核心,他们就遵守国际人道主义法(IHL)和国际人权法(IHRL)提出了关键问题。本文介绍了围绕法律的法律和道德辩论,特别关注政府法律专家(GGE法律)中的讨论。我们分析这些技术是否可以在维持其运营功效的同时遵守基本人权。通过将自主频谱框架应用于现实世界情景,该研究既突出了法律的战略优势,也凸显了非人性化战争的风险。需要强大的法律框架以确保问责制和人类的监督仍然至关重要。
在这篇文章中,具有AI伦理,风险分析和国际安全研究背景的Matthias Klaus探讨了与军事AI应用相关的伦理挑战,通常被对自主武器系统(AWS)的主要主导所在的担忧所掩盖。他强调了与DSS专门相关的许多道德挑战,这些挑战通常被描绘成为军事决策带来更多的客观性,有效性和效率。但是,他们可能会促进偏见,侵犯人类的自主权和尊严,并通过导致同伴压力和咨询行动,从而有效地破坏军事道德责任。
《某些常规武器公约》(CCW)有127个签署人,这是一个不包括66个联合国成员国的队列。CCW还将讨论限制为国家之间的战争(国际人道主义法)。因此,论坛在很大程度上忽略了道德问题,侵犯人权的行为和对非国家武装团体的扩散或这些武器可以促进未来种族灭绝的方式。尽管在发展共同的理解方面取得了进展,但长期以来,某些州利用了CCW的共识要求阻止了进步。
媒体所有者,出版商和编辑:联邦欧洲和国际事务部裁军,军备控制和非扩展少数派兹普茨8,1010 Vienna +43(0)50 11 50 50-0 BMEIA.GV.GV.AT作者:裁定,军备控制和非预订局的武器,军备控制和非预订部:欧洲和国际事务部:
在致命的自主武器系统中的新兴技术方面的政府专家,4-8 3月4日至8日和2024年8月26日至30日,议程项目5进一步考虑并通过共识,一组乐器的要素,不限制其性质,并在其范围内限制其范围的范围,以解决lerthement oferning ofernos的典范,以实例为实例,以实例为实例,以实例为实例,以实例为范围内的武器,以实现自动的范围,以实现自动的自动范围,以实现自动的范围。高缔约方提出的建议以及与致命自治武器系统领域的新兴技术规范和运营框架有关的其他选择,基于该小组的建议和结论,并在法律,军事和技术方面提出专业知识在致命的自主武器系统中的新兴技术方面的政府专家,4-8 3月4日至8日和2024年8月26日至30日,议程项目5进一步考虑并通过共识,一组乐器的要素,不限制其性质,并在其范围内限制其范围的范围,以解决lerthement oferning ofernos的典范,以实例为实例,以实例为实例,以实例为实例,以实例为范围内的武器,以实现自动的范围,以实现自动的自动范围,以实现自动的范围。高缔约方提出的建议以及与致命自治武器系统领域的新兴技术规范和运营框架有关的其他选择,基于该小组的建议和结论,并在法律,军事和技术方面提出专业知识
1。在其第78/241号决议上的第2款中,大会要求秘书长寻求成员国和观察者在Interno的致命武器系统上的观察国家的观点,以解决人工,法律,宗教和宗教的责任,以及在人类的安全,宗教和事件上提出的相关挑战和关注的方式,以及这些挑战和关注,以及在人类的安全上,以及在人工上,义务和宗教,以及在人工上,善意的责任,以及在人工,义务上,以及在人工,宗教上的责任,以及在人工,法律上的责任感,以及在人工,法律上的责任,以及在人工,法律上的责任和关注实质性报告反映了在第七十九会议上向大会收到的附件,其中包含这些观点的全部观点,以进行成员国的进一步讨论。在同一决议的第3段中,议会还要求秘书长邀请国际和地区组织的观点,红十字国际委员会,民间社会,科学界和工业委员会,并在上述报告附件中收到的原始语言中包括这些观点。根据这些请求提交本报告。
第二,场景练习反映了有关AWS设计和使用限制的广泛观点。共享了确保国际人道主义法(IHL)遵守国际人道主义法(IHL)的重要性和对IHL违规行为的责任的重要性,但这些假设中流动的局限性是广泛争议的,显着的分歧是目标,环境使用环境和某些数据过程方法。差异的关键来源源于不同的基本原理和关注,这些理由和关注者为参与者的观点提供了理解的意见,从不同的IHL阅读到植根于不同人权,道德,安全或其他政策优先级的更广泛价值观。然而,尽管更广泛的担忧,尤其是与伦理有关的问题,通常被用来绘制线条,但它们很少被深入解释。为了提出讨论,各州可以更详细地详细阐述其道德问题的性质,并探讨这些问题在政策讨论中应发挥的作用。
越来越多的证据表明AWS技术正在迅速发展,并且很可能会激增。许多因素将决定哪种AWS扩散,它们扩散到哪些AWS以及增殖的速度和范围。一个因素是所讨论的机器人系统的技术性质。物理硬件的某些元素已经使某些AWS扩散了,并且许多现有的武器系统可以通过自主权进行改造。通过强大的处理芯片,传感器和数字软件的结合来促进自治的促进。虽然传感器和处理器的便利性可能会受到制裁的影响,但已经可以自由地提供了一些软件的元素。虽然在未来的一段时间内可能仍然很难(或不可能)创建一个复杂的,合法的AWS,但能够自主航行,获取和杀死目标的简单,“低端” AWS今天越来越实用。1这可能会导致有毒的混乱:随着AWS的越来越多,许多简单且负担得起的制作系统可能最不可能遵守国际法。
《战争法》,这些武器的使用引起了联合国参与国际安全的担忧。15 Marosaria Taddeo和Alexander Blanchard在2021年的研究重点是自主武器系统(AWS)的定义。根据对这些武器系统提出的道德和法律问题的各种方法,该定义涵盖了AWS的各个方面,并根据各州和国际组织(例如红十字会和北大西洋条约组织(北约)提供的AWS的官方定义进行了比较。此策略可能被视为改善AWS理解的不利之处,这可以帮助促进就部署条件和规则(包括使用AWS的基本考虑)达成共识。16根据克里斯·詹克斯(Chris Jenks)的一篇文章,法律已经存在了一段时间,尽管它们主要是防御性和反物质。但是,当更复杂的防御法律(例如复杂的蜂群制度蓬勃发展)时,政府肯定会创造对策。无法排除从防守式操纵到全面反攻纳入的过程。17“新形式的技术武器”一词是由克里斯汀·艾奇斯(Kristen Eichensehr)创造的,他观察到,大多数战争法则主要适用于新开发的技术,而新技术的任何新法律都应是战争法则的一小部分,适用于这种现有技术。18法律是自主武器系统,曾经被激活,完全或几乎完全没有人类控制。这些成本必须作为法律总体评估的一部分,因为这种能力有可能彻底改变警务和战争,并可能对人类福利产生重大,有害的后果。Asif Khan和Maseeh Ullah的另一篇论文回顾了有关制定国际AWS的最新著作。该研究对某些学者的担忧做出了回应,即由于多种原因,这种禁令将很难。这是一个理论基础的理论基础,以基于人权和人道主义关注的道德和法律考虑的这种禁令。在开发各种可能对人们的基本权利构成严重威胁的自动化和自动武器系统之前,作者认为,最好将此职责确立为国际标准并通过条约表达这一职责。19在他的2020年研究中,埃里克·塔尔伯特·詹森(Eric Talbot Jensen)专注于国家的观点,其中许多是由于某些常规武器公约的各州之间的讨论而公开的。 他研究了学者和非政府组织(NGO)所陈述的观点,19在他的2020年研究中,埃里克·塔尔伯特·詹森(Eric Talbot Jensen)专注于国家的观点,其中许多是由于某些常规武器公约的各州之间的讨论而公开的。他研究了学者和非政府组织(NGO)所陈述的观点,