今年的选举也是深度伪造之年吗?

世界各地的许多人已经不信任他们的选举制度。当人工智能进入画面时会发生什么?

来源:新闻解码器

有很多警告称,2024 年,当全球数百万人前往投票站时,我们可能会面临前所未有的、由人工智能 (AI) 驱动的误导选民的努力。到目前为止,我们看到的大多是讽刺。

2023 年末,印度事实核查机构 BOOM Live 的 Karen Rebelo 首次偶然发现她怀疑是使用人工智能生成的政客声音克隆制作的视频。她不知道该怎么办。作为事实核查员的工作之一,她“揭穿”了造假行为,但她不能根据直觉发表揭穿造假的行为。

声音克隆 声音克隆

视频看起来制作得很差,但音频听起来很真实,这让人感到困惑。“听起来非常像他们的声音。听起来一点也不像机器人,”Rebelo 说。

经过数月的测试,她终于找到了专家,证实了她的怀疑。专家们发现,很可能使用了一种流行的人工智能工具,可以上传语音样本进行文本转语音生成。

Rebelo 担心,在今年春天印度大选前夕,她会看到大量虚假的人工智能生成内容。但令她惊讶的是,她错了。至少到目前为止。

深度伪造还是丑陋的卡通片?

到 2024 年为止,人工智能工具已经被用于虚假的选举支持、机器人评论和传播抵制选举的呼吁。尽管如此,专家表示,我们仍然很少看到所谓的深度伪造,它们与真实视频难以区分,或会带来令人担忧的后果。

一家致力于打击虚假信息的人工智能公司 Logically 的高级政府事务经理 Sophie Murphy-Byrne 表示,他们的团队进行了 224 次与印度选举相关的事实核查,但只有 4% 是关于人工智能生成的内容。“我们主要注意到廉价假货的使用多于深度假货,”Murphy-Burne 说。

逻辑上 “deepfakes” 指的是 “deepfakes” 指的是 一直在跟踪 一直在跟踪

“很难说他们试图欺骗任何人,”Brandom 说。

分辨真假

宝莱坞电影场景