详细内容或原文请订阅后点击阅览
军事人工智能中的偏见
为了支持参与军事人工智能 (AI) 政策辩论的国家,本背景文件对军事人工智能中的偏见问题进行了更深入的探讨。
来源:斯德哥尔摩国际和平研究所首页为支持参与军事人工智能 (AI) 政策辩论的各国,本背景文件对军事人工智能中的偏见问题进行了更深入的探讨。本文得出了三个见解。
首先,政策制定者可以有效地开发一个关于军事人工智能偏见的描述,以捕捉人们对不公平的共同担忧。如果是这样,“军事人工智能中的偏见”可能是指军事人工智能系统的系统性偏差性能,这种偏差会导致不合理的不同行为——这可能会延续或加剧有害或歧视性的结果——这取决于种族、性别和阶级等社会特征。
其次,在军事人工智能的众多偏见来源中,有三大类最为突出:社会偏见;数据处理和算法开发中的偏见;以及使用中的偏见。
第三,军事人工智能中的偏见可能会产生各种人道主义后果,具体取决于环境和用途。这些后果包括从在目标决策中错误识别人和物体到对人道主义需求做出有缺陷的评估。
目录
I. “军事人工智能中的偏见”指的是什么?
II. 军事人工智能中偏见的来源
III. 军事人工智能中偏见的人道主义后果
IV. 结论
关于作者/编辑