摘要本文探讨了国家在违反涉及人工智能技术(AI)技术的国际法方面可能承担责任的条件和方式。虽然如何归因和分配错误行为的责任的问题是AI的核心当代挑战之一,但根据国际法,国家责任的观点仍然相对毫无疑问。此外,大多数学术和政策辩论都集中在自动武器系统(AWS)提出的问题上,而没有对AI在军事领域中其他潜在应用提出的问题非常关注。本文对与军事AI有关的国家责任进行了全面分析。它讨论了国家对AI支持的军事技术的不法使用的责任,以及在部署之前的行为归因以及国家责任的问题,即未能确保在发展或收购阶段将AI系统遵守AI系统具有国际法。此外,这可能是针对其他州或私人参与者的行为而产生的。
Federica I Paddeu Derek Bowett 英国剑桥大学法学院法学研究员 英国剑桥大学劳特派特国际法中心研究员 Christian J Tams * 英国格拉斯哥大学国际法教授 英国伦敦 Matrix Chambers 学术成员 摘要 作为一名国际法学者和实践者,詹姆斯·鲍威尔 (James Bowett) 的工作范围令人惊叹:从边界划定到基础来源问题,再到投资仲裁中撤销的复杂性,几乎没有什么超出他的理解或兴趣。从 1990 年代起,国家责任成为他工作的重点,指导国际法委员会 (ILC) 迅速对《国家对国际不法行为的责任条款》(条款) 进行了二读。最终案文于 2001 年通过,并作为联合国大会第 56/83 号决议的附件,虽然反映了国际法委员会的集体努力,但也带有他的印记。在本文中,我们以克劳福德的三点观察作为讨论的线索,探讨他在这些条款的制定中所扮演的角色以及它们在当代国际法中的地位。首先,这些条款改变了我们思考[国家]的方式。其次,这种编码练习标志着朝着有利可图的方向迈出了一步。最后,这种练习产生了正式的非约束性文本,这一事实使作为一般国际法结构一部分的条款能够被理解。