Loading...
机构名称:
¥ 2.0

军事人工智能 (AI) 技术可能仍处于相对起步的阶段,但关于如何规范其使用的辩论已经如火如荼地展开。大部分讨论都围绕着自主武器系统 (AWS) 及其表面上可能产生的“责任差距”展开。本文认为,虽然一些军事人工智能技术确实可能在个人责任领域造成一系列概念障碍,但它们并不会在国家责任法下引发任何独特问题。以下分析考虑了后一种制度,并列出了将其应用于因使用人工智能军事技术而导致的可能违反国际人道主义法 (IHL) 基石——区分原则——的关键环节。它表明,在涉及 AWS 的案件中归咎责任的任何挑战都不会由人工智能的纳入引起,而源于国际人道主义法先前存在的系统性缺陷及其下错误不明确的后果。文章重申,国家对 AWS 部署的影响承担的责任始终由指挥官根据国际人道法授权部署武器承担。然而,有人提出,如果所谓的完全自主武器系统(即基于机器学习的致命系统,能够在预定框架之外改变自己的操作规则)投入使用,将其行为归咎于部署国可能更为公平,将其概念化为国家代理人,并将其视为国家机关。

军事人工智能与区分原则

军事人工智能与区分原则PDF文件第1页

军事人工智能与区分原则PDF文件第2页

军事人工智能与区分原则PDF文件第3页

军事人工智能与区分原则PDF文件第4页

军事人工智能与区分原则PDF文件第5页