学生再次愚弄AI计算机视觉(+视频)
当谷歌的人工智能将两个滑雪者误认为是一只狗时,这种欺骗似乎是无害的。但黑客欺骗“智能”自动驾驶系统的可能性正变得越来越令人不安,该系统可以识别路上的塑料袋而不是儿童。
来源:Robogeek新闻频道(关于机器人技术的俄罗斯与世界新闻)当谷歌的人工智能将两个滑雪者误认为是一只狗时,这种欺骗似乎是无害的。但黑客欺骗“智能”自动驾驶系统的可能性正变得越来越令人不安,该系统可以识别路上的塑料袋而不是儿童。
麻省理工学院团队展示了他们的激进算法如何轻松愚弄谷歌,导致狗和各种物体的错误分类。
LabSix 团队使用了 Google Cloud Vision API,该 API 可供开发人员免费使用。他们希望他们的程序能够执行“图像和面部标记、地标检测、光学字符识别 (OCR) 和显式内容标记”。但 LabSix 指出,任何其他依赖深度学习的计算机视觉服务(例如 Amazon Rekognition)都可能容易受到其技术的影响。
“证明算法在实验室环境中有效是一回事,但证明它在真实系统中有效则完全是另一回事,”麻省理工学院的研究生 Aneesh Atali 说道。 “根据我们的实验,我们有理由相信 Google Cloud Vision 可能会被黑客攻击。”
LabSix 团队的方法是“第一个用于调整‘部分信息’的激进算法,”麻省理工学院的学生研究员 Jesse Lin 说。 “我们的方法允许在现实环境中进行攻击,而这些攻击以前是很难处理或成本非常高的。”
LabSix 的研究成果将在 2018 年 6 月 18 日至 22 日在犹他州举行的计算机视觉和识别系统会议上公布。研究人员并不打算从他们的工作成果中获利,但他们打算继续演示深度学习系统的恶意代码,以便安全专业人员能够快速保护计算机视觉和人工智能软件。