详细内容或原文请订阅后点击阅览
麻省理工学院的学生如何愚弄 Google AI(+ 视频)
我们越来越依赖人工智能所表现出的能力来识别一切事物,从奇异的物质状态到特定的面孔。但愚弄这些软件算法有多难呢?这正是麻省理工学院(MIT)的学生们想要找到的答案。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)我们越来越依赖人工智能所表现出的识别一切事物的能力,从奇异的物质状态到特定的面孔。但愚弄这些软件算法有多难呢?这正是麻省理工学院(MIT)的学生们想要找到的答案。
一群学生决定找出神经网络识别物体的可靠性和一致性。他们使用了一种叫做“对抗性图像”的东西,这是一种欺骗智能计算机程序的模式。它使用特定的模式来欺骗人工智能。我们不是在谈论彼此相似的图像,而是在谈论可以叠加在图像上的图案。它可以作为几乎不可见的图层添加到现有图像之上。但这些“对抗性图像”并不总是能正常发挥作用。缩放、裁剪、角度和其他变换通常会损坏或降低覆盖图像的有效性。
麻省理工学院的一个团队能够创建一种算法,使用 2D 和 3D 的“对抗性图像”可靠地愚弄人工智能。无论物体的角度如何,这些图像都会欺骗人工智能。该团队欺骗了 Google 的 AI Inception v3,使其将 3D 打印的乌龟识别为枪。
这项研究也非常重要,因为所描述的问题不仅存在于 Google,而且存在于所有神经网络。通过弄清楚人类如何欺骗这些系统,研究人员可以开发新方法来使人工智能识别系统更加准确。