Loading...
机构名称:
¥ 2.0

摘要:本文研究了规范自主武器的适当原则,其中一些原则已纳入国际人道主义法 (IHL),其他一些原则仍仅停留在理论上。区分平民和非平民、解决责任空白和比例原则是规范人工智能 (AI) 战争使用的基本原则,但必须将人类对战争人工智能的重大控制纳入其中。通过假设演绎程序,采用定性方法和文献综述,得出结论:实现区分标准、价值敏感设计、消除问责空白、重大人类控制和国际人道法必须支持对自主武器系统使用的规范——然而,区分平民和非平民和比例原则在技术上尚不可行,这使得遵守国际人道法仍然依赖于重大人类控制;而战争人工智能算法的不透明性将使其使用的法律责任变得困难。

战争中使用人工智能的监管

战争中使用人工智能的监管PDF文件第1页

战争中使用人工智能的监管PDF文件第2页

战争中使用人工智能的监管PDF文件第3页

战争中使用人工智能的监管PDF文件第4页

战争中使用人工智能的监管PDF文件第5页