详细内容或原文请订阅后点击阅览
NIST 识别操纵人工智能系统行为的网络攻击类型
出版物列出了“对抗性机器学习”威胁,描述了缓解策略及其局限性。
来源:美国国家标准技术研究所如果对手找到一种方法来混淆其决策,AI 系统可能会发生故障。在此示例中,道路上的错误标记会误导无人驾驶汽车,可能导致其转向迎面而来的车流。这种“逃避”攻击是 NIST 新出版物中描述的众多对抗策略之一,旨在帮助概述我们可能预期的攻击类型以及缓解这些攻击的方法。
来源:N. Hanacek/NIST
来源:对手可以故意混淆甚至“毒害”人工智能 (AI) 系统以使其发生故障 - 而且他们的开发人员无法采用万无一失的防御措施。美国国家标准与技术研究所 (NIST) 的计算机科学家及其合作者在一份新出版物中指出了人工智能和机器学习 (ML) 的这些和其他漏洞。
对抗性机器学习:攻击和缓解的分类和术语 (NIST.AI.100-2) 对抗性机器学习:攻击和缓解的分类和术语 值得信赖的人工智能 逃避 中毒 隐私 滥用