数字水印可以嵌入媒体中,这有助于检测后续的深度伪造。一种形式的水印会添加计算机可检测但人类无法察觉的像素或音频模式。这些模式会在任何被修改的区域中消失,从而使所有者能够证明媒体是原始媒体的更改版本。另一种形式的水印会添加一些功能,使使用该媒体制作的任何深度伪造看起来或听起来都不真实。 元数据(描述媒体中数据的特征)可以以加密安全的方式嵌入。缺失或不完整的元数据可能表明媒体已被更改。 区块链。将媒体和元数据上传到公共区块链会创建一个相对安全的版本,该版本无法更改,否则其他用户会发现更改。然后任何人都可以将文件及其元数据与区块链版本进行比较,以证明或反驳真实性。
1 Bibhu Dash & Pawankumar Sharma,《ChatGPT 和 Deepfake 算法是否危及网络安全行业?评论》,10(1) I NT'L J. OF E NG'G & A PPLIED S CI. 1 (2023 年 1 月 16 日),https://www.ijeas.org/download_data/IJEAS1001001.pdf [https://perma.cc/7VPT-BUZ5](讨论技术如何利用机器学习来操纵图像和视频,从而危及区分真假图像的能力)。 2 例如,请参阅 Robert McMillan 等人的《新的 AI Deepfakes 使 2024 年选举复杂化》,《华尔街日报》,2024 年 2 月 16 日(讨论随着 Deepfakes 的传播,AI 如何对选民投票率产生不利影响)。 3 例如,请参阅 Ashley Belanger 的《少年男孩使用人工智能制作同学的假裸照,引发警方调查》,A RS T ECHNICA (2023 年 11 月 2 日),https://arstechnica.com/tech-policy/2023/11/deepfake-nudes-of-high-schoolers-spark-police-probe-in-nj/ [https://perma.cc/PM46-YPPM](最后访问时间为 2024 年 2 月 18 日)(讨论少年如何使用人工智能图像生成器制作和分享女同学的假裸照)。
信息战正在升级。虚假信息战的主要工具是简单的模因:在社交媒体上分享的图像、视频或文本,传达特定的想法或感受(Sprout Social,未注明日期)。俄罗斯利用模因针对 2016 年美国大选(DiResta 等人,2019 年);中国利用模因针对香港抗议者(Wong、Shepherd 和 Liu,2019 年);那些试图质疑 2019 年冠状病毒病疫苗有效性的人将模因用作最喜欢的工具(Wasike,2022 年;Helmus 等人,2020 年)。许多人认为,表情包以及其他常见且看似过时的虚假信息工具(例如虚假新闻网页和故事以及尖锐的 Facebook 帖子)已成功破坏了人们对美国大选的信心(大西洋理事会数字取证研究实验室,2021 年),在美国选民中制造了分裂(Posard 等人,2020 年),并增加了阴谋论的采纳(反数字仇恨中心,2021 年;Marcellino 等人,2021 年)。然而,计算机科学和人工智能 (AI) 的进步为传播虚假信息提供了一种新的、极具吸引力的方法:深度伪造。深度伪造视频是
2024 年 4 月 28 日 — AI 艺术作品使用数十亿张图像和艺术范例生成。当您输入提示时,AI 艺术作品生成器会为您构建一幅图像。
本文介绍了政治深度伪造事件数据库 (PDID),这是一个政治上显著的深度伪造的集合,包括合成视频、图像和不太复杂的“廉价伪造”。该项目的推动因素包括政治中生成式人工智能的兴起、持续的应对危害的政策努力以及将人工智能事件与政治传播研究联系起来的需要。该数据库包含政治深度伪造内容、元数据和研究人员编码的描述符,这些描述符来自政治学、公共政策、传播和错误信息研究。它旨在帮助揭示政治深度伪造的普遍性、趋势和影响,例如那些以主要政治人物或事件为特色的深度伪造。PDID 可以对深度伪造的使用提供见解,协助监管,进行深入分析,支持事实核查和建立信任的努力,并提高对政治深度伪造的认识,从而使政策制定者、研究人员、记者、事实核查人员和公众受益。它适用于媒体效应、政治话语、人工智能伦理、技术治理、媒体素养和对策方面的研究和应用。
泽连斯基办公室立即否认了其真实性,并指出这正是他们在战前警告过的那种“深度伪造”。尽管如此,作为武装冲突中首次高调使用深度伪造的事件,该事件标志着信息行动的转折点。欺骗和媒体操纵一直是战时通信的一部分,但此前几乎没有任何冲突参与者能够生成对手政治官员和军事领导人的逼真音频、视频和文本。随着人工智能 (AI) 变得越来越复杂,计算成本不断下降,深度伪造对在线信息环境构成的挑战只会越来越大。政策制定者和政府官员需要开发强大的系统来实时监控和验证公共和私人信息,同时还要评估何时(如果有的话)自己利用这项技术。
摘要 — 近期所谓的深度伪造的现实创作和传播对社会生活、公民休息和法律构成了严重威胁。名人诽谤、选举操纵和深度伪造作为法庭证据只是深度伪造的一些潜在后果。基于 PyTorch 或 TensorFlow 等现代框架、FaceApp 和 REFACE 等视频处理应用程序以及经济的计算基础设施的开源训练模型的可用性简化了深度伪造的创作。大多数现有检测器专注于检测换脸、口型同步或木偶大师深度伪造,但几乎没有探索用于检测所有三种类型深度伪造的统一框架。本文提出了一个统一的框架,利用混合面部标志和我们新颖的心率特征的融合功能来检测所有类型的深度伪造。我们提出了新颖的心率特征,并将它们与面部标志特征融合,以更好地提取假视频的面部伪影和原始视频中的自然变化。我们利用这些特征训练了一个轻量级的 XGBoost,以对 deepfake 和真实视频进行分类。我们在包含所有类型 deepfake 的世界领袖数据集 (WLDR) 上评估了我们框架的性能。实验结果表明,与比较 deepfake 检测方法相比,所提出的框架具有更优异的检测性能。将我们的框架与深度学习模型候选模型 LSTM-FCN 进行性能比较,结果表明,所提出的模型取得了类似的结果,但它更具可解释性。索引术语 —Deepfakes、多媒体取证、随机森林集成、树提升、XGBoost、Faceswap、Lip sync、Puppet Master。
现有的视听深击检测方法主要集中于高级效率,以建模音频和视觉数据之间的矛盾。因此,这些副本通常忽略了更精细的视听伪像,这些伪影是深击所固有的。在此,我们提出了引入细粒机制,以检测空间和时间域中的微妙人物。首先,我们引入了一个本地视听模型,该模型能够捕获容易与音频不一致的小空间区域。为此,采用了基于空间本地距离与注意模块的细粒机制。第二,我们引入了一个暂时的伪假增强,以包括在训练集中结合暂时性不一致的样品。在DFDC和FakeAvceleb数据集上进行的实验证明了所提出的方法在泛化方面与在数据库和交叉数据库设置下的最新技术相比,在概括方面具有优越性。