详细内容或原文请订阅后点击阅览
妈妈!他们抓住了她——但这只是人工智能”:一部“现实生活中的恐怖电影”如何在堪萨斯州上演
一个可怕的电话。一份疯狂的 911 报告。警察赶忙阻止他们认为是绑架的事件,却发现这完全是一场骗局。最近在堪萨斯州劳伦斯市就发生了这样的情况,一名妇女拿起语音信箱,发现它被一个奇怪的声音劫持,就像她母亲声称遇到麻烦一样。这个声音是人工智能生成的,实际上很假。突然之间,这不再是犯罪小说的情节——而是现实生活。警方称,另一端的声音“听起来和她妈妈一模一样”,语气、语调甚至情绪都高度一致。 [...]
来源:AI 2 People一个可怕的电话。一份疯狂的 911 报告。警察赶忙阻止他们认为是绑架的事件,却发现这一切都是骗局。
最近在堪萨斯州劳伦斯市发生了这样的情况,一名妇女拿起她的语音信箱,发现它被一个奇怪的声音劫持,就像她母亲声称遇到了麻烦一样。
这个声音是人工智能生成的,实际上很假。突然之间,这不再是犯罪小说的情节——而是现实生活。
语音由 AI 生成警方称,另一端的声音“听起来和她妈妈一模一样”,语气、语调甚至情绪都高度一致。
整件事感觉就像诈骗者获取了一些公共音频(可能来自社交媒体或语音邮件问候语),通过一些语音克隆人工智能将其输入,然后看着世界被烧毁。
语音克隆人工智能于是女子拨打了911;警察追踪了这个号码并拦下了一辆汽车——却发现:没有绑架。只是一种虚拟的威胁,旨在欺骗人类的感官。
这样的事情已经不是第一次发生了。只需一段音频,今天的人工智能就可以生成沃尔特·克朗凯特(Walter Cronkite)或巴拉克·奥巴马(Barack Obama)的悦耳语调——无论这位前总统是否说过类似你所听到的内容……使用深度伪造的片段以新的、令人信服的方式操纵人们的行为。
一家安全公司最近的一份报告发现,大约 70% 的情况下,人们很难区分克隆声音和真实声音。
这不仅仅是一次性恶作剧和小骗局。诈骗者利用这些工具来模仿公职人员,欺骗受害者给他们汇出巨额资金,或者在情绪激动的情况下冒充朋友和家人。
结果是:一种新型欺诈行为比近期记忆中的任何欺诈行为都更难被发现,也更容易实施。
好吧,这就是老式的电话检查,但在人工智能时代,它可以重现语气、笑声甚至悲伤——这可能只是保证你安全的门票。
骗局 变得更加严重