还记得人们担心不受监管的算法和媒体泡沫的影响吗?啊……那是一个更简单的时代。2022 年底,当 OpenAI 向公众推出其自然语言处理聊天机器人 ChatGPT 时,一切都变了。我们本来已经在为几乎无法察觉的深度伪造图像的前景做好准备,但现在全世界的人类都可以使用一种人工智能 (AI) 工具,它可以生成用户能想象到的任何东西——文本、图像、音频、视频,甚至代码。在此后的一年半里,市场上出现了源源不断的竞争对手和配套产品,从 Midjourney、Claude、Dall-E2 到 Microsoft Copilot。据估计,每周有超过 1 亿人使用 ChatGPT,预计市场规模将从 2024 年的 209 亿美元增长到 2030 年的 1367 亿美元。
美国半数州寻求打击选举中的人工智能:随着 2024 年选举周期的临近,至少有 26 个州已经通过或正在考虑制定法案,规范生成式人工智能在选举通讯中的使用,随着人们对人工智能操纵或剥夺选民权利的潜力的担忧日益加剧,这些法案揭示了一套零散的规则。人工智能滥用的例子已经发生,例如使用人工智能生成的声音进行虚假自动拨号和深度伪造政治广告。包括德克萨斯州、加利福尼亚州和明尼苏达州在内的 19 个州已经颁布了针对选举中人工智能生成的深度伪造和合成媒体的法律,而其他七个州目前正在考虑制定类似的立法。尽管各州采取了行动,但专家警告说,只有全面的联邦法规才能完全解决人工智能对选举的影响,因为目前各州的法律在范围、执法和例外情况方面差异很大。(Axios)
数字水印可以嵌入媒体中,这有助于检测后续的深度伪造。一种形式的水印会添加计算机可检测但人类无法察觉的像素或音频模式。这些模式会在任何被修改的区域中消失,从而使所有者能够证明媒体是原始媒体的更改版本。另一种形式的水印会添加一些功能,使使用该媒体制作的任何深度伪造看起来或听起来都不真实。 元数据(描述媒体中数据的特征)可以以加密安全的方式嵌入。缺失或不完整的元数据可能表明媒体已被更改。 区块链。将媒体和元数据上传到公共区块链会创建一个相对安全的版本,该版本无法更改,否则其他用户会发现更改。然后任何人都可以将文件及其元数据与区块链版本进行比较,以证明或反驳真实性。
在过去三年中,生成式人工智能技术(例如 DALL-E、ChatGPT)突然从研究论文和公司实验室跃升至包括学童在内的数亿人使用的在线服务。根据皮尤研究中心 (Pew Research) 的数据,仅在美国,2023 年 7 月就有 18% 的成年人使用过 ChatGPT(Park & Gelles-Watnick, 2023)。随着生成式人工智能的流畅性和可负担性逐月提高,其广泛滥用也在不断增加,用于创建价格合理、极具说服力的大规模虚假宣传活动。人工智能生成的虚假信息具有高度破坏性的例子比比皆是,包括利润丰厚的 Facebook 广告 1,试图通过摩尔多瓦亲西方总统的深度伪造视频来影响选民(Gilbert, 2024)。YouTube 还被发现托管带有政治深度伪造视频的广告,这些视频使用了声音模仿(RTL Lëtzebuerg, 2023)。除了视频之外,人工智能生成的图像还被用来传播有关加沙的虚假信息(法国,2023 年;Totth,2023 年)并传播分裂的反移民言论(The Journal,2023 年)。事实核查人员还报告了音频深度伪造,到目前为止,这些音频伪造主要集中在政客的虚假对话和言论上(Demagog,2023 年;Dobreva,2023 年;Bossev,2023 年)。俄罗斯的虚假宣传活动还将生成式人工智能武器化(例如,乌克兰总统呼吁投降的深度伪造视频(Kinsella,2023 年)、人工智能生成的乌克兰总统与妻子的对话(Demagog,2023 年)。目标国家遍及整个欧盟(及其他地区),包括保加利亚(Bossev,2023 年;BNT,2023 年)等高度易受影响的国家,这些国家的公民媒体素养和批判性思维能力较低,并且缺乏对人工智能生成的复杂图像、视频、音频和文本存在的认识。旨在打击帖子和广告中的虚假信息的平台行动迄今为止也未能检测和删除有害的人工智能生成内容。所有主要的社交媒体平台和聊天应用程序都受到了影响。为简洁起见,我们这里仅列举了 Facebook 的一些示例(广告(Gilbert,2024 年)、群组(The Journal,2023 年)、页面(Bossev,2023 年) ))、YouTube (RTL 卢森堡,2023 年)、X (法国,2023 年;Totth,2023 年)、Instagram (法国,2023 年;Totth,2023 年)、TikTok (法新社,美国和法新社德国,2023 年;Marinov,2023 年) 和 Telegram (Starcevic,2023 年;Marinov,2023 年)。人工智能生成的内容(例如,一条声称保加利亚选票被操纵的虚假音频(Dobreva,2023 年))也通过电子邮件发送给媒体和记者,意图欺骗可靠的媒体发布虚假内容。此外,生成式人工智能不仅被用于以低成本创建极具欺骗性的虚假宣传活动,而且其存在和熟练程度还被行为者武器化,他们传播虚假声明,声称真实的图像、视频、政府和主流媒体的音频内容实际上是假的。最近的一个例子是针对特斯拉的一起诉讼案,该公司律师声称伊隆·马斯克的一段视频是深度伪造的(《卫报》和路透社,2023 年)。另一个例子来自保加利亚,试图抹黑政府和“新自由主义”主流媒体的坏人通过
现有的视听深击检测方法主要集中于高级效率,以建模音频和视觉数据之间的矛盾。因此,这些副本通常忽略了更精细的视听伪像,这些伪影是深击所固有的。在此,我们提出了引入细粒机制,以检测空间和时间域中的微妙人物。首先,我们引入了一个本地视听模型,该模型能够捕获容易与音频不一致的小空间区域。为此,采用了基于空间本地距离与注意模块的细粒机制。第二,我们引入了一个暂时的伪假增强,以包括在训练集中结合暂时性不一致的样品。在DFDC和FakeAvceleb数据集上进行的实验证明了所提出的方法在泛化方面与在数据库和交叉数据库设置下的最新技术相比,在概括方面具有优越性。
自 2018 年以来,PAI 一直通过与行业、媒体、民间社会和学术利益相关者的合作,致力于制定有关深度伪造和其他合成媒体的规范性指导——包括对深度伪造检测机器学习竞赛的管理、对观众如何反应被操纵的媒体标签的研究,甚至如何思考给 AI 内容加水印。2023 年 2 月,PAI 发布了《合成媒体负责任实践:集体行动框架》,这是一项技术政策,旨在探索那些创建、开发和分发合成媒体的人如何负责任地做到这一点。这项工作源于一个协作起草过程,该过程有 100 多个全球利益相关者参与,他们正在考虑一套共同的价值观、策略和实践,以对合成媒体进行负责任的治理。该框架得到了 18 家领先的技术、民间社会和媒体机构的支持,包括 OpenAI、BBC、Bumble、Adobe、TikTok、WITNESS 等。
1 Bibhu Dash & Pawankumar Sharma,《ChatGPT 和 Deepfake 算法是否危及网络安全行业?评论》,10(1) I NT'L J. OF E NG'G & A PPLIED S CI. 1 (2023 年 1 月 16 日),https://www.ijeas.org/download_data/IJEAS1001001.pdf [https://perma.cc/7VPT-BUZ5](讨论技术如何利用机器学习来操纵图像和视频,从而危及区分真假图像的能力)。 2 例如,请参阅 Robert McMillan 等人的《新的 AI Deepfakes 使 2024 年选举复杂化》,《华尔街日报》,2024 年 2 月 16 日(讨论随着 Deepfakes 的传播,AI 如何对选民投票率产生不利影响)。 3 例如,请参阅 Ashley Belanger 的《少年男孩使用人工智能制作同学的假裸照,引发警方调查》,A RS T ECHNICA (2023 年 11 月 2 日),https://arstechnica.com/tech-policy/2023/11/deepfake-nudes-of-high-schoolers-spark-police-probe-in-nj/ [https://perma.cc/PM46-YPPM](最后访问时间为 2024 年 2 月 18 日)(讨论少年如何使用人工智能图像生成器制作和分享女同学的假裸照)。
联邦贸易委员会(FTC)报告说,消费者在2023年损失了超过100亿美元的欺诈行为,强调了对先进的欺诈检测系统的需求。XXVII欺诈检测是银行业生成AI的主要应用。高盛(Goldman Sachs)估计,生成的AI可以将欺诈行为减少20%,这对金融交易的安全性有了显着提高。xxviii潜力在于生成AI分析广泛交易数据以识别异常模式和欺诈活动的能力。这可以增强银行系统的安全性,并保护客户免受金融犯罪。一种新兴的欺诈类型可能适合遇到的生成性AI是所谓的DeepFake含量的兴起 - 合成媒体被认为是真实地误导或虚假陈述的。生成的AI可用于快速创建深层蛋糕,使欺诈者能够创建恶意内容,欺诈性网站和复杂的网络钓鱼方案。虽然生成型AI助长了这个问题,但它也可以提供解决方案,因为它分析了文本,图像,视频等,以使制造的媒体具有误导性。
2024 年,Drake 发布了两首引起轰动的新歌。两首歌都针对 Kendrick Lamar,他们争夺最佳说唱歌手的头衔。4 “Push Ups” 5 是 Drake 的第一首“diss”曲目,非常粗俗——贬低了 Lamar 的身高——以至于人们认为这是别人制作的 AI 深度伪造。6 Drake 很快就毫无疑问地证明了这是他的作品。7 几天后,Drake 又推出了另一首 diss 曲目“Taylor Made Freestyle”。8 这一次,Drake 更进一步,使用 AI 模仿已故的 Tupac Shakur(也称为“2Pac”)和 Snoop Dogg,似乎都在嘲笑 Lamar。9 AI 语音克隆让粉丝们“震惊”。10 在他的手机“爆炸”后,人们提醒他 Drake 的歌曲,Snoop Dogg 发布了一段视频,问道:“他们做了什么?什么时候?怎么做的?你确定吗?” 11 然后,他无奈地说:“我要回去睡觉了。晚安。” 12
1 Romano, A. 乔丹·皮尔模仿奥巴马的公益广告是对假新闻的双刃剑。Vox,2018 年 4 月。网址:https://www. vox.com/2018/4/18/17252410/jordan-peele-obama-deepfake-buzzfeed [访问日期:2023 年 12 月 9 日] 2 Sky News。工党会议第一天发布了基尔·斯塔默爵士的 Deepfake 音频。Sky News,2023 年 10 月。网址:https://news.sky.com/story/labour-faces-political-attack-after-deepfake-audio-is-posted-of-sir-keir-starmer-12980181 [访问日期:2023 年 1 月 4 日] 3 Thompson, A. 初看:RNC 在 AI 生成的广告中抨击拜登。Axios,2023 年 4 月。网址:https://www.axios.com/2023/04/25/rnc-slams- biden-re-election-bid-ai-generated-ad [访问日期:04/01/2024] 4 YouTube。共和党:击败拜登。YouTube,2023 年 4 月。网址:https://www.youtube.com/watch?v=kLMMxgtxQ1Y [访问日期:04/01/2024] 5 英国科学、创新和技术部和人工智能办公室。人工智能监管:一种有利于创新的方法。GOV.UK,2023 年 3 月。网址:https://www.gov.uk/government/publications/ai-regulation-a-pro-innovation-approach [访问日期:09/12/2023]