在保护社会免受暴力,执行正义和确保人民权利的重要角色。5最终,符合人权的警务是建立在信任和直接社区参与的基础上的,尤其是在贫困的公共机构的信任往往是有理由脆弱的被剥夺的社区中。使用自主武器系统在执法中的使用有根本改变这种关系的风险,带来了工具,使执法部门与公众的互动中最复杂的领域(对个人的致命和致命力量)的使用 - 对个人的同意削弱了社区的同意,以实现符合人权的政权。根据IHRL法律和标准,人类代理机构和判断是人为机构和判断。使用武力的决定,无论是致命的还是更致命的,只能由人权法和人权法做出,“强烈强调人类的推理和互动”。6此外,关键的人权执法标准的语言明确以独特的人类能力为基础。例如,BPUFF引用了“警察道德”和“与使用武力相关的道德问题”的概念 - 暗示人类的判断和道德生活的概念 - 而CCLEO则强调为社区和保护人类尊严提供服务。7根据Bpuff的说法,人类进行交流,降级,说服和谈判的能力是避免或最小化武力使用的核心策略 - 管理执法官员合法使用武力的核心思想。问责制无意义的人类控制的武力可能会产生“问责真空”。如果认为有必要的力量,那么微妙的人类判断,涉及对意图的复杂情况评估,威胁水平和群体动态对于确定合法反应至关重要。考虑到情感,动机,心理和后勤因素,要评估生命和肢体威胁的迫在眉睫的情感,激励性,心理和后勤因素,因此部署故意致命的武力的决定是极高的阈值,并且特别细微而复杂。8相反,根据联合国人权委员会对生命权的一般评论36的说法,任意剥夺生命包含“不公正”的要素 - 一种本质上的人类质量 - 缺乏可预测性,这是围绕AWS律师的辩论中的关键概念。9可以预先编程以解决某些情况的想法与执法人员必须不断评估给定情况的观念背道而驰,以便在可能的情况下避免或至少最大程度地减少使用武力的使用。是一台编程的机器,可以使这些持续的,微调的,迭代的评估 - 实时适应不断变化的情况 - 这将使它在不同的意义上成为问题:适应环境提示的能力,尤其是诸如感知的行为变化之类的微妙指标 - 会使机器固有地固有地放置在有意义的人类控制之外。10最终,在决定使用武力的决定中,AWS不能用来代替必不可少的人类判断;并且将无法以试图最大程度地减少伤害,防止生命损失或评估致命力量的必要性和相称性的方式在给定时刻是合理的。11,这源于以下事实:国际人权法可以约束国家和个人而不是机器 - 并试图将其责任考虑,以及在使用在有意义的人类控制之外运行的机器时,法律造成人类责任的困难。第12条根据BPUFF,政府和执法机构的原则24,“应确保高级官员在知道或应该知道的情况下承担责任,或者知道执法人员在其指挥下的执法人员正在采取措施,或者诉诸于武力和枪支的非法使用,并且他们没有采取所有措施来防止使用这些措施来抑制或报告这种措施。”13然而,从决策施加致命或少的致死力的距离