当 Deepfakes 成为主流时:OpenAI 的 Sora 应用程序成为骗子游乐场

前几天晚上,我在滚动浏览动态时,偶然发现了一个朋友在机场讲着流利日语的短片。唯一的问题是什么?我的朋友不懂日语。就在那时我意识到这根本不是他——而是人工智能。更具体地说,它看起来很像用 Sora 制作的东西,Sora 是一款正在掀起风暴的新视频应用程序。根据最近的一份报告,Sora 已经成为诈骗者的理想工具。该应用程序可以生成异常逼真的视频,更令人担忧的是,删除通常标记 [...]

来源:AI 2 People

前几天晚上,我在滚动浏览动态时,偶然发现了一个朋友在机场讲着流利日语的短片。

唯一的问题是什么?我的朋友不懂日语。

就在那时我意识到那根本不是他——那是人工智能。更具体地说,它看起来很像用 Sora 制作的东西,Sora 是一款正在掀起风暴的新视频应用程序。

索拉

根据最近的一份报告,Sora 已经成为诈骗者的理想工具。该应用程序可以生成极其逼真的视频,更令人担忧的是,它还可以删除通常将内容标记为人工智能生成的水印。

最近的报告

专家警告说,它为深度伪造诈骗、错误信息和冒充行为打开了大门,其程度达到了我们以前从未见过的程度。

老实说,看着这些工具发展得有多快,很难不感到有点不安。

最疯狂的是 Sora 的“客串”功能如何让人们上传自己的面孔以出现在人工智能视频中。

这听起来很有趣 - 直到您意识到有人可以在技术上在假新闻剪辑或妥协场景中使用您的肖像,甚至在您发现之前。

报告显示,用户已经看到自己做了或说了一些他们从未做过的事情,这让他们感到困惑、愤怒,在某些情况下,甚至在公开场合感到尴尬。

虽然 OpenAI 坚称正在努力增加新的保障措施,例如让用户控制其数字替身的显示方式,但所谓的“护栏”似乎正在下滑。

有些人已经发现了通过该应用程序创建的暴力和种族主义图像,这表明过滤器没有捕捉到它们应该捕捉到的所有内容。

暴力和种族主义图像

批评者表示,这与一家公司无关,而是一个更大的问题,即我们对合成媒体进行标准化的速度有多快。

尽管如此,还是有一些进展的迹象。据报道,OpenAI 一直在测试更严格的设置,让人们更好地控制人工智能的使用方式。

Sora 添加了新的身份控制

这里更大的问题是,当现实与虚构之间的界限完全模糊时会发生什么。