摘要 — 近期所谓的深度伪造的现实创作和传播对社会生活、公民休息和法律构成了严重威胁。名人诽谤、选举操纵和深度伪造作为法庭证据只是深度伪造的一些潜在后果。基于 PyTorch 或 TensorFlow 等现代框架、FaceApp 和 REFACE 等视频处理应用程序以及经济的计算基础设施的开源训练模型的可用性简化了深度伪造的创作。大多数现有检测器专注于检测换脸、口型同步或木偶大师深度伪造,但几乎没有探索用于检测所有三种类型深度伪造的统一框架。本文提出了一个统一的框架,利用混合面部标志和我们新颖的心率特征的融合功能来检测所有类型的深度伪造。我们提出了新颖的心率特征,并将它们与面部标志特征融合,以更好地提取假视频的面部伪影和原始视频中的自然变化。我们利用这些特征训练了一个轻量级的 XGBoost,以对 deepfake 和真实视频进行分类。我们在包含所有类型 deepfake 的世界领袖数据集 (WLDR) 上评估了我们框架的性能。实验结果表明,与比较 deepfake 检测方法相比,所提出的框架具有更优异的检测性能。将我们的框架与深度学习模型候选模型 LSTM-FCN 进行性能比较,结果表明,所提出的模型取得了类似的结果,但它更具可解释性。索引术语 —Deepfakes、多媒体取证、随机森林集成、树提升、XGBoost、Faceswap、Lip sync、Puppet Master。
Deepfake技术的兴起通过引入一种新的方式来创建高度现实和令人信服的数字内容,通常是视频或图像,在这种方法中,通常不同意将一个人的相似之处替换为他人的相似之处。这项技术未经他们的同意,带来了实质性的风险,例如误导了对人的误导性,侵犯了个人权利,并遭受了潜在地位和潜在地位。目前,围绕Deepfakes的法律框架仍在发展中,创作者目前享有一定程度的免疫侵权责任。在这一不断发展的景观中,一个具有前瞻性的营销团队在其促销活动中尝试了深刻的效果,其中包括一个著名名人认可其产品的深层发展。尽管法律界限可以允许这种变革性的作品,但道德维度需要中心。
数字增强证据 法院可能需要考虑改变证据规则,但在此之前,数字增强证据是音频、视频或经过 AI 软件增强的图像。法官可能需要要求专家对经过 AI 软件增强的图像进行证词。数字增强证据的目的通常是为了提高受到质疑的音频、视频和图像的质量,而不是视频或图像。这与过去的用途不同,例如依靠噪音,因为 AI 可能会用噪音填充图像上的像素,例如,通过嵌入他人的肖像来改变原始图像。
可以通过故意用AI代的产出来将儿童置于风险中。AI生成的语音和图像输出的创建和部署可以促进一系列危害。恶意演员可以使用图像生成器来消除照片并更改性别,以创建假子镜。反过来,这些可以用于在线接近或与儿童联系,以进行修饰,性骚扰或七分。成人和儿童可以使用语音和视频生成技术来创建Deepfake角色,并将其作为潜在受害者的潜在朋友或浪漫伴侣(类似于成人浪漫骗局中的实时深层技术)。8个孩子们说或做他们在现实生活中没有做过的事情,或者他们的外表已经
第一次提到深度伪造是在 2016 年美国总统大选一年多后,那次大选以虚假新闻现象为标志(Gunther 等人,2018 年;Lee,2019 年)。许多人担心接下来的 2020 年总统大选也会充斥着虚假信息,尤其是虚假新闻和深度伪造的结合,但这并没有发生(Meneses,2021 年)。对这次选举影响最大的深度伪造可能是 2019 年 5 月涉及纳西·佩洛西的深度伪造:当时的美国众议院议长看起来喝醉了,说话含糊不清,好像喝醉了一样(Stewart,2019 年)。关键在于,这不是深度伪造,因为它没有使用人工智能;相反,它是一个廉价伪造(或不太常用的浅层伪造),一段使用比深度伪造技术简单得多的手段编辑的视频(Pawelec,2022 年)。正如 Paris & Donovan (2019) 所说,深度伪造和廉价伪造的共存增加了区分两者的难度。这种类型的虚假信息可能对政治话语和未来选举产生的影响(Appel & Prietzel,2022)并非无关紧要,因为它是故意改变的视听内容,并通过社交媒体进行放大。至于佩洛西的视频,由于它是基于编辑软件或只是音频音调的变化,因此更容易做到,也更容易检测,这与今天的假新闻类似。这个例子强调了了解每一种现象的本质的必要性,尽可能正确地定义它,“以协助制定一致且理论上连贯的深度伪造定义”(Whittaker 等人,2023 年)。
泽连斯基办公室立即否认了其真实性,并指出这正是他们在战前警告过的那种“深度伪造”。尽管如此,作为武装冲突中首次高调使用深度伪造的事件,该事件标志着信息行动的转折点。欺骗和媒体操纵一直是战时通信的一部分,但此前几乎没有任何冲突参与者能够生成对手政治官员和军事领导人的逼真音频、视频和文本。随着人工智能 (AI) 变得越来越复杂,计算成本不断下降,深度伪造对在线信息环境构成的挑战只会越来越大。政策制定者和政府官员需要开发强大的系统来实时监控和验证公共和私人信息,同时还要评估何时(如果有的话)自己利用这项技术。
深度伪造 给深度伪造添加水印可能有助于识别一些人工智能生成的音频、照片和视频,但它并不能解决这些内容的创作和传播背后的恶意,尤其是在政治背景下。在政治领域,不良行为者可能会部署深度伪造,以虚假的方式展示公众人物说或做他们从未做过的事情,目的是左右舆论或影响选举。即使水印表明视频是人工智能生成的,这些人仍然可以传播它来误导观众,因为他们依赖许多人会忽视或误解水印的可能性。同样,当深度伪造的目的是让某人难堪或骚扰时,即使水印成功地提醒大多数人内容是由人工智能生成的,深度伪造仍可能达到其预期效果。此外,使用 GenAI 并不是制作看似逼真的欺骗性媒体的唯一方法。个人可以手动创建欺骗性媒体,例如录制虚假音频的语音模仿者,或使用非人工智能数字工具,例如照片编辑软件来创建误导性图像。
摘要这项研究研究了Deepfake和开源智能(OSINT)在使虚假运动及其社会后果的作用。使用DeepFake检测挑战(DFDC)数据集进行技术评估,OSINT网络和情感分析的社交媒体数据集以及来自全球虚假信息索引的公众舆论数据,研究应用机器学习分类,网络分析,情感分析和中断时间序列(ITS)分析。技术评估的检测准确性为0.73,精度为0.75,召回0.70,确定了识别合成介质的增强区域。OSINT分析显示,虚假信息的关键放大器,用户1的学位中心性为0.263,betweensess中心性为0.135。 情感分析显示,平均情绪得分为-0.085,而其分析记录了公共信任后事件事件的9.76点下降。 建议包括开发自适应AI检测系统,实施全球监管措施,促进公共媒体素养以及鼓励道德的OSINTOSINT分析显示,虚假信息的关键放大器,用户1的学位中心性为0.263,betweensess中心性为0.135。情感分析显示,平均情绪得分为-0.085,而其分析记录了公共信任后事件事件的9.76点下降。建议包括开发自适应AI检测系统,实施全球监管措施,促进公共媒体素养以及鼓励道德的OSINT
本文介绍了政治深度伪造事件数据库 (PDID),这是一个政治上显著的深度伪造的集合,包括合成视频、图像和不太复杂的“廉价伪造”。该项目的推动因素包括政治中生成式人工智能的兴起、持续的应对危害的政策努力以及将人工智能事件与政治传播研究联系起来的需要。该数据库包含政治深度伪造内容、元数据和研究人员编码的描述符,这些描述符来自政治学、公共政策、传播和错误信息研究。它旨在帮助揭示政治深度伪造的普遍性、趋势和影响,例如那些以主要政治人物或事件为特色的深度伪造。PDID 可以对深度伪造的使用提供见解,协助监管,进行深入分析,支持事实核查和建立信任的努力,并提高对政治深度伪造的认识,从而使政策制定者、研究人员、记者、事实核查人员和公众受益。它适用于媒体效应、政治话语、人工智能伦理、技术治理、媒体素养和对策方面的研究和应用。