尽管有好处,但深度学习模型仍容易受到各种攻击和漏洞的影响。对抗机器学习是一个新兴领域,研究了机器学习模型和保护它们的机制的脆弱性[2]。在这种情况下,对手可以利用机器学习系统的设计,培训过程或部署中的弱点来操纵其行为或损害其绩效。一个主要的安全问题是围绕对抗(逃避)攻击,涉及恶意尝试通过向输入数据添加小的扰动来欺骗或降低模型的性能,以在模型中引入偏见或漏洞。在本文中,我们首先讨论战术领域深度学习的应用领域。接下来,我们将对抗性机器学习作为新兴攻击向量,并讨论对抗攻击对深度学习绩效的影响。最后,我们讨论了可以针对这些攻击应用的潜在防御方法。