改变图像以欺骗机器视觉也可以影响人类

在《自然通讯》上发表的一系列实验中,我们发现证据表明人类的判断确实受到对抗性扰动的系统影响。

来源:DeepMind - 新闻与博客

研究

为欺骗机器视觉而修改的图像也会影响人类

已发布 2024 年 1 月 2 日作者 Gamaleldin Elsayed 和 Michael Mozer
已发布
2024 年 1 月 2 日
作者
Gamaleldin Elsayed 和 Michael Mozer

Gamaleldin Elsayed 和 Michael Mozer

新研究表明,即使是对数字图像进行细微更改(旨在混淆计算机视觉系统)也会影响人类感知

计算机和人类以不同的方式看待世界。我们的生物系统和机器中的人工系统可能并不总是关注相同的视觉信号。经过训练以对图像进行分类的神经网络可能会被人类甚至不会注意到的图像的细微扰动完全误导。

AI 系统可能会被此类对抗性图像欺骗,这可能表明人类和机器感知之间存在根本差异,但这促使我们探索人类是否也可能——在受控的测试条件下——对相同的扰动表现出敏感性。在《自然通讯》上发表的一系列实验中,我们发现证据表明人类的判断确实受到对抗性扰动的系统影响。

我们的发现凸显了人类和机器视觉之间的相似性,但也表明需要进一步研究以了解对抗性图像对人类以及 AI 系统的影响。

什么是对抗性图像?

对抗性图像是通过某种程序巧妙改变的图像,该程序导致 AI 模型自信地对图像内容进行错误分类。这种故意欺骗被称为对抗性攻击。例如,攻击可以有针对性地使 AI 模型将花瓶分类为猫,或者可以使模型看到除花瓶之外的任何东西。

对抗性示例如何影响人类感知?

信号太弱,无法表达信心或意识

AI 安全与保障研究的重要性