当战争机器做出决定时:现代冲突中的算法、秘密和责任,与 Brianna Rosen

Arthur Holland Michel 和牛津大学的 Brianna Rosen 讨论了加沙战争、美国无人机计划以及算法决策、透明度和问责制。

来源:卡内基国际事务伦理委员会资源

BRIANNA ROSEN:我们不知道到底发生了什么,而这在很大程度上是问题所在,因为以色列在加沙战争中如何使用人工智能的透明度非常低。

BRIANNA ROSEN:

我们所知道的是:以色列正在使用基于人工智能的系统(如 Gospel),但它并不是唯一一个能够快速自动提取情报信息以更快地确定更多目标的系统。这不仅仅是猜测。我想强调这一点。以色列国防军 (IDF) 本身已经表示正在使用人工智能来加速瞄准目标,事实证明了这一点。

Gospel

在当前冲突的头两个月里,以色列袭击了大约 25,000 个目标,是之前加沙战争的四倍多。过去,以色列会用尽目标,即已知的战斗人员或合法的军事目标,但这不再是杀戮的障碍。人工智能充当着力量倍增器的作用,它消除了资源限制,使以色列国防军能够识别更多目标,包括通常不会成为目标的初级人员,因为他们的死亡对军事目标的影响微乎其微。因此,人工智能正在加快行动节奏,扩大潜在目标范围,使目标验证和其他预防性应用更难实现,所有这些都增加了平民被误认和错误瞄准的风险。

除了增加战争速度和规模外,以色列人工智能系统的准确性尚不清楚。从算法中潜在的偏见到幻觉问题,国内人工智能的所有已知问题都可能在这里持续存在。

守卫城墙行动 ARTHUR HOLLAND MICHEL: BRIANNA ROSEN: 我 12 月在《Just Security》上发表的文章 Just Security ARTHUR HOLLAND MICHEL:

您能否进一步说明为什么这些 AI 系统中的可解释性和可追溯性在冲突背景下很重要?

BRIANNA ROSEN: ARTHUR HOLLAND MICHEL: BRIANNA ROSEN: