图像更改为欺骗机器的视觉可能也会影响人类

在自然通信中发表的一系列实验中,我们发现证据表明人类判断确实受到对抗性扰动的系统影响。

来源:DeepMind - 新闻与博客

研究

图像更改为欺骗机器的视觉可能也会影响人类

出版了2 2024年1月2日authorsgamaleldin elsayed和Michael Mozer
已发布
2024年1月2日
作者
Gamaleldin Elsayed and Michael Mozer

新的研究表明,即使是旨在混淆计算机视觉系统的数字图像的微妙变化也会影响人类的感知

计算机和人类以不同的方式看到世界。我们的生物系统和机器中的人造系统可能并不总是关注相同的视觉信号。受过训练的图像进行分类的神经网络可以通过微妙的扰动完全误导到人类甚至不会注意到的图像。

这样的对抗图像可以欺骗AI系统,这可能表明人类和机器感知之间的根本差异,但它促使我们探索人类是否也可能在受控的测试条件下 - 对同一扰动的敏感性。在自然传播中发表的一系列实验中,我们发现证据表明人类判断确实受到对抗性扰动的系统影响。

我们的发现突出了人类和机器视觉之间的相似之处,但也表明需要进一步研究以了解对抗图像对人以及AI系统的影响。

什么是对手图像?

对抗图像是通过一种使AI模型自信地错误分类图像内容的过程进行了微妙改变的图像。这种有意的欺骗被称为对抗性攻击。例如,攻击可以引起AI模型将花瓶分类为CAT,也可以将其设计为使模型看到除了花瓶以外的任何内容。

左:人工神经网络(ANN)正确地将图像分为花瓶,但是当整个图片中看似随机的模式(中间)扰动时,强度放大了出于说明性的目的 - 结果图像(右)是错误的,并且是错误地且谨慎地将其错误地分类为猫。