Loading...
机构名称:
¥ 1.0

行为会以意想不到的方式产生偏见。例如,如果训练数据不够广泛,无法涵盖各种可能事件,它可能会偏向于无法很好地扩展到未知数据集的解决方案。此外,我们并不总是知道人工智能系统在进行匹配时会关注哪些特征。研究发现,有大量人工智能无意中学习到不适当的性别和种族偏见的案例(Garcia,2016 年;Miller、Katz 和 Gans,2018 年)。对国防部来说,关键在于,如果美国依赖人工智能进行信息处理或关键系统软件(例如,船舶、飞机或无人系统中的自主操作),外国可能会巧妙地操纵人工智能学习偏见,以“训练”美国人工智能走向错误模式,作为欺骗和破坏的手段(Endsley & Jones,2001)。

人类因素与人体工程学学会对人工智能的评论...

人类因素与人体工程学学会对人工智能的评论...PDF文件第1页

人类因素与人体工程学学会对人工智能的评论...PDF文件第2页

人类因素与人体工程学学会对人工智能的评论...PDF文件第3页

人类因素与人体工程学学会对人工智能的评论...PDF文件第4页

人类因素与人体工程学学会对人工智能的评论...PDF文件第5页

相关文件推荐

2016 年
¥56.0