1土耳其伊斯蒂尼大学医学院医学院医学系医学系; oyku.geyik@istinye.edu.tr 2分子癌研究实验室(Isumcrc),伊斯蒂尼大学,伊斯坦布尔34010,土耳其; eulukaya@istinye.edu.tr 3核心研究与预防研究所(ISPRO)核心研究实验室,意大利佛罗伦萨50139; giulia.anichini@gmail.com 4医学系医学系医学院,伊斯提尼大学,伊斯坦布尔34010,土耳其5号,55139佛罗伦萨大学佛罗伦萨大学实验与临床医学系,意大利佛罗伦萨 *通信 *通信 *通信:Fabio.marra@uniifirf.it(f.uniifif。 ); chiara.raggi@unifin );电话。 : +39-05-5275-8128(F.M. ); +39-05-5275-8128(C.R.) †这些作者为这项工作做出了同样的贡献。 ‡这些作者对这项工作也同样贡献。1土耳其伊斯蒂尼大学医学院医学院医学系医学系; oyku.geyik@istinye.edu.tr 2分子癌研究实验室(Isumcrc),伊斯蒂尼大学,伊斯坦布尔34010,土耳其; eulukaya@istinye.edu.tr 3核心研究与预防研究所(ISPRO)核心研究实验室,意大利佛罗伦萨50139; giulia.anichini@gmail.com 4医学系医学系医学院,伊斯提尼大学,伊斯坦布尔34010,土耳其5号,55139佛罗伦萨大学佛罗伦萨大学实验与临床医学系,意大利佛罗伦萨 *通信 *通信 *通信:Fabio.marra@uniifirf.it(f.uniifif。); chiara.raggi@unifin);电话。: +39-05-5275-8128(F.M.); +39-05-5275-8128(C.R.)†这些作者为这项工作做出了同样的贡献。‡这些作者对这项工作也同样贡献。
正如 Nguyen 等人 (2022) 在文章中所描述的那样,“Deepfakes” 一词是两个词的组合:“深度学习”和“假冒”,人们利用人工智能技术将名人或政客的脸换成非法图像和视频中的身体。Deepfake 技术将有助于生成一个人在未经本人同意的情况下说任何话的幽默或政治视频,其外表和声音都与此有关 (Westerlund, 2019)。例如,在特朗普总统的竞选活动中,他的竞争对手使用 Deepfake 制造了一些关于他的桃色新闻,这些新闻曾经抹黑了他,让人们不信任他。根据 Köbis 等人 (2021) 谈论人们对 Deepfakes 的看法,他们的研究结果表明,人们不再能够检测到 Deepfakes,因为他们中的许多人对自己的检测能力过于自信。最近与 Deepfake 相关的研究大多依赖于技术表面,专注于如何制作 Deepfake 视频,但忽略了人性部分。在这项研究中,我们的主要目标是分析影响人们感知 Deepfake 视频的根本原因。此外,我们将提供未来帮助人们验证 Deepfake 视频真伪的策略。
第一个令人难忘的提及是 Deepfake 技术,它震撼了互联网和大众。Deepfake 是一种震撼互联网并引起广泛关注的技术,因为它能够创建高度逼真的假图像、视频和录音 [3]。它使用人工智能来操纵媒体并创建看似真实的内容,即使它完全是捏造的。人们开始认识和了解人工智能,它可以完成以前需要很长时间才能完成的复杂操作。Deepfake 并不是第一个使用人工智能制作的技术,但它引起了人们的关注,并激励其他开发人员将他们的想法推向聚光灯下。在接下来的几年里,许多工具出现了,每个新工具的开发时间都比旧工具短,从而增加了它们的出现频率。起初,这些工具受到热烈欢迎和使用。然而,随着时间的推移,人们注意到一种奇怪的趋势,因为它们开始取代那些经过多年学习以磨练技能的员工 [4]。
AI 生成 AI 生成 计算机生成 数字生成 数字生成 人造 人造 人造 合成 合成 数字改变 数字改变 数字调整 Deepfake Deepfake 操纵 操纵 操纵 不真实 不真实 表 1. 术语列表
DeepFake Technology使用AI来创建操纵媒体,对社交媒体平台上的信息完整性构成了重大威胁。在印度,Deepfake内容的兴起呈指数增长,尤其是在政治和娱乐领域,假新闻和AI生成的视频已经风靡一时,导致了错误的信息。主要目的是开发一个可靠的AI模型,该模型可以准确地检测到社交媒体平台上的深击内容,重点是使用FastText Embeddings识别机器生成的推文。传统方法涉及根据预定义的规则和关键字匹配的社交媒体帖子的人类审核,事实检查机构以及手动过滤。这些方法是耗时的,而且通常不准确,缺乏管理大量在线内容的可扩展性。手动检测深摄影和AI-AI-I-Actuct含量非常低效,容易出现错误,并且无法实时处理大量社交媒体数据。因此,在被识别或删除之前,有害和误导性信息可能会广泛传播。随着社交媒体在塑造公众舆论的日益影响,这项研究背后的动机是打击错误信息和维护在线话语的完整性。特别是深度学习模型可以通过自动化社交媒体内容的分析来显着改善对深击的检测。fastText嵌入将将推文转换为有意义的单词向量,而深度学习模型可以应用于对推文是人类生成还是AI生成的推文。与传统方法相比,这种方法提供了实时检测,提高准确性和可伸缩性。
视觉几何组在牛津大学开发了视觉几何组(VGG)结构。这是一个卷积神经网络(CNN),具有可靠的视觉识别性能。可以利用VGG进行深层检测功能提取,因为它可以捕获图像中的详细空间层次结构。它也有助于确定深层生成技术引入的伪影和不规则性。深度卷积层是指深度学习模型中使用的一种层,尤其是卷积神经网络(CNN),该卷积模型(CNN)旨在处理结构化的网格数据,例如图像。VGG架构中的深卷积层已被广泛用于深膜检测。vgg模型已经使用了诸如VGGFace(Ghazi和Ekenel,2016年)之类的方法,以提取深层操作带来的高级面部特征和斑点差异(Chang等人,2020)。
“深度伪造”一词在人工智能领域、媒体和普通大众中的使用方式各不相同。有时,人们会认为它是指所有人工智能生成或编辑的内容。本报告使用“深度伪造”一词来指代部分合成的内容:基于真实图像或视频但使用人工智能技术进行了修改的编辑内容。这在“深度伪造视频”的背景下尤为重要——在本报告更新中,指的是编辑(或“伪造”)的真实视频——应将其与通过文本转视频或文本转图像转视频创建的完全合成的视频明确区分开来。
“深度伪造”一词在人工智能领域、媒体和普通大众中的使用方式各不相同。有时,人们会认为它是指所有人工智能生成或编辑的内容。本报告使用“深度伪造”一词来指代部分合成的内容:基于真实图像或视频但使用人工智能技术进行修改的编辑内容。这在“深度伪造视频”的背景下尤为重要——在本报告更新中,指的是编辑(或“伪造”)的真实视频——应将其与通过文本转视频或文本转图像转视频创建的完全合成的视频明确区分开来。
响应深层摄影所带来的不断升级的威胁,以前的研究工作重点是发明利用CNN体系结构的检测模型。尽管结果有希望,但其中许多模型在面对现实世界的情况时表现出可重现性和实用性的局限性。为了应对这些挑战,这项研究努力开发一个更概括的检测框架,能够辨别各种数据集的深击内容。通过在精选的Wilddeepfake数据集中训练简单但有效的ML和DL模型,该研究评估了检测来自DeepFake对应物的真实媒体的可行性。通过对模型性能的比较分析和评估,本研究旨在为可靠的深泡检测方法的发展做出贡献。这项研究中使用的模型表明,在对DeepFake介质进行分类方面有明显的准确性。
为了应对这些发展,现有用于识别深击的算法在猫和小鼠游戏中不断完善,在猫和鼠标的游戏中,抗异性图像的创建越来越复杂。但是,这些识别方法通常在孤立的上下文中起作用,因此深层的复杂性及其使用的上下文也会造成识别问题。换句话说,深击中使用的图像通常与在线图像的真实或自然使用相对应,这为旨在以特定方式工作的系统造成了问题。因此,在各种情况下,一种技术方法必须将反犹太图像使用的可能性和条件整合在一起,包括将技术,务实和符号学方面考虑到深料识别过程中。本报告代表了如何工作的一个示例。