摘要 人工智能的概念在历史上一直占有重要地位,在当代也一直是人们经常讨论和探索的主题。人工智能 (AI) 是众多文学作品和电影中反复出现的主题,其在未来背景下具有重大意义。对人工智能的主题探索一直是数十年来创造性努力的主题。近年来,深度伪造技术已成为人工智能领域的一个突出主题。深度伪造技术被广泛认为是一项基于人工智能和深度学习的创新。近年来,众多深度伪造应用对公众产生了巨大影响。除了制作针对高知名度人物的操纵电影外,很明显,深度伪造技术在多个领域都具有许多潜在应用。本研究的目的是探索深度伪造技术在许多领域的潜在应用。本研究通过集中学习概念并参考人工智能技术来研究深度伪造技术。该研究通过进行全面的文献分析并分析其在不同领域的使用实例,对深度伪造技术的众多应用进行了分类。根据研究结果,可以将深度伪造技术的重要应用分为四个不同的类别。前面提到的类别包括艺术和娱乐、广告和营销、电影业、政治传播和媒体。关键词:人工智能、深度学习、深度伪造、超现实。
一种名为Deepfakes的新现象在视频操纵中构成了严重的威胁。基于AI的技术已经提供了易于使用的方法来创建极其现实的视频。在多媒体取证的一边,能够个性化这种假件变得更加重要。在这项工作中,提出了一种新的法医技术来检测假和原始视频序列;它基于使用受过训练的CNN,以通过利用光流场来区分视频序列的时间结构中可能的运动差异。获得的结果突出显示了最先进的方法,通常只诉诸单个视频帧。此外,提出的基于光流的检测方案在更现实的跨手术操作方案中还提供了卓越的鲁棒性,甚至可以与基于框架的方法相结合以提高其全球效率。
ISA建议实施一项国家教育运动,以提高人们对Deepfake技术危害的认识以及滥用它的法律后果。 全国运动将支持学生,教育工作者,父母和公众的广泛信息,内容涉及创建和共享Deepfake内容的道德考虑和潜在影响。 由于这是一个迅速发展的空间,年轻人可能没有意识到,深击性材料的产生和分布是刑事犯罪。 强大的教育运动可以限制这些立法修正案引起的其他调查/指控的数量,从而减少了对警察资源的影响。ISA建议实施一项国家教育运动,以提高人们对Deepfake技术危害的认识以及滥用它的法律后果。全国运动将支持学生,教育工作者,父母和公众的广泛信息,内容涉及创建和共享Deepfake内容的道德考虑和潜在影响。由于这是一个迅速发展的空间,年轻人可能没有意识到,深击性材料的产生和分布是刑事犯罪。强大的教育运动可以限制这些立法修正案引起的其他调查/指控的数量,从而减少了对警察资源的影响。
摘要 - 本文着重于评估所选工具以检测DeepFake视频,该视频对数字信息的完整性和在线媒体的可信度构成了日益严重的威胁。随着人工智能越来越多地创建高度逼真的操纵内容,对健壮检测系统的需求不仅在数字取证中很重要,而且在更广泛的信息安全和媒体验证领域也很重要。这项研究提供了对五种DeepFake检测工具的比较分析,其中包括三种开源工具(SBI,LSDA,LIPINC)和两种商业解决方案(Bio-ID,Deepware),这些数据集在Celeb-DF(V2)的300个操纵视频的数据集上进行了测试。结果表明,商业工具的性能更好,生物ID的检测准确性为98.00%,而Deepware 93.47%的检测准确性优于开源替代方案。
摘要 - 使用深层生成模型生成的深层效果或合成图像对在线平台构成了严重的风险。这触发了几项研究工作,以准确检测DeepFake图像,在公开可用的DeepFake数据集上取得了出色的性能。在这项工作中,我们研究了8个州的探测器,并认为由于最近的两个发展,他们还远未准备好部署。首先,轻巧的方法的出现可以自定义大型生成模型,可以使攻击者能够创建许多自定义的发电机(创建深层效果),从而实质上增加了威胁表面。我们表明,现有的防御能力无法很好地推广到当今公开可用的用户定制的生成模型。我们讨论了基于内容不足的功能的新机器学习方法,并进行集成建模,以提高对用户定制模型的概括性能。第二,视觉基础模型的出现 - 经过广泛数据训练的机器学习模型,可以轻松地适应几个下游任务 - 攻击者可能会滥用攻击者来制作可以逃避现有防御措施的对抗性深击。我们提出了一次简单的对抗性攻击,该攻击通过仔细的语义操纵图像内容来利用现有的基础模型在不增加任何对抗性噪声的情况下制作对抗性样本。我们强调了针对我们的攻击的多种防御能力的脆弱性,并探索了利用高级基金会模型和对抗性训练来防御这种新威胁的方向。
随着深度伪造技术的快速发展,深度伪造语音的检测变得越来越具有挑战性。在本文中,我们提出了一种用于深度伪造语音检测的混合架构,将用于特征提取的自监督学习框架与分类器头相结合,形成端到端模型。我们的方法结合了音频级和特征级增强技术。具体而言,我们介绍并分析了用于增强原始音频频谱图和在训练期间增强特征表示的各种掩蔽策略。我们在特征提取器的预训练阶段加入了压缩增强,以解决小型单语言数据集的局限性。我们在 ASVSpoof5(ASVSpoof 2024)挑战赛上对该模型进行了评估,在封闭条件下在 Track 1 中取得了最佳结果,等错误率为 4.37%。通过使用不同的预训练特征提取器,该模型实现了 3.39% 的增强 EER。我们的模型表现出了抵御未知深度伪造攻击的强大性能,并在不同的编解码器中表现出了强大的泛化能力。
网络虚假信息已成为学术界研究的一大焦点,也是记者和广大公众关注的一大原因。尽管多种形式的虚假信息已经在网上盛行,但一些评论员担心,新技术——尤其是用于生成深度伪造视频的技术——将加剧虚假信息问题 (Fallis, 2021 ; Foer, 2018 ; Rini, 2020 ; Warzel, 2018 )。人们很自然地会认为,既然用于欺骗的新技术是问题,那么用于检测的新技术就是解决方案。因此,人们已经投入了大量的心思和投资来研究用于检测深度伪造和其他形式的虚假信息的技术。在本文中,我认为,解决深度伪造所带来问题的技术解决方案非常有限。在简要概述了深度伪造如何威胁
在网络安全领域,恶意行为者可以使用深度伪造技术创建伪造内容并发起社会工程攻击,例如网络钓鱼或鱼叉式网络钓鱼活动。这些风险凸显了迫切需要采取强有力的对策来防范深度伪造产生的网络安全威胁和隐私泄露的有害影响。出现了大量漏洞和威胁。这些漏洞和威胁主要是由生成式人工智能和深度伪造技术的进步推动的。这些技术对语音和视频身份验证系统的完整性构成的迫在眉睫的威胁包括:
音频深度伪造对我们日常交流中的信任构成了日益严重的威胁。为此,研究界开发了各种各样的检测技术,旨在防止此类攻击欺骗用户。不幸的是,这些防御措施的创建通常忽略了系统中最重要的元素——用户自己。因此,尚不清楚当前的机制是增强、阻碍还是仅仅与人类对深度伪造的分类相矛盾。在本文中,我们进行了首次大规模的深度伪造检测用户研究。我们招募了 1,200 多名用户,并向他们展示了来自三个被引用最多的深度伪造数据集的样本。然后,我们定量比较性能并定性进行主题分析,以激发和理解用户决策背后的原因以及与机器分类的差异。我们的结果表明,用户正确分类人类音频的比率明显高于机器学习模型,并且在进行分类时依赖语言特征和直觉。然而,用户也经常被对生成音频能力的先入之见所误导(例如,口音和背景声音代表人类)。最后,机器学习模型的缺陷在于
简介 IT 取证是一个领域,由于其新颖性和必须考虑的威胁形势的快速变化,仍然有很多研究活动。不幸的是,许多相应的研究计划仍然停留在纯学术层面,缺乏现场应用分析方法所需的成熟度。在这种情况下,标准化流程模型的存在在走向成熟解决方案的道路上起着重要作用,因为要达到取证方法的最终基准(即其在法庭诉讼中的可采纳性),就需要对工具和程序进行标准化和认证,以及对从业者/取证专家进行培训和认证。虽然在 IT 取证的较老子学科的取证过程模型(包括数据模型等关键组件)方面已经开展了大量工作,但对于较年轻的媒体取证领域子学科,适应性解决方案仍然缺失。