1. 参见 31 USC § 5312(a)(2);31 CFR § 1010.100(t)。2. 深度伪造媒体或“deepfakes”是一种合成内容,它使用人工智能/机器学习来创建逼真但不真实的视频、图片、音频和文本。参见美国国土安全部 (DHS),“深度伪造身份的威胁日益增加”(“DHS 报告”)。正如 DHS 进一步指出的那样,深度伪造和合成媒体的威胁并非来自用于创建它们的技术,而是来自人们自然倾向于相信他们所看到的内容,因此,深度伪造和合成媒体不需要特别先进或可信就可以有效传播错误信息或虚假信息。3. 人工智能是一种基于机器的系统,可以针对一组给定的人类定义目标做出影响真实或虚拟环境的预测、建议或决策。 “生成式人工智能”是指模拟输入数据的结构和特征以生成衍生合成内容的人工智能模型类。这可以包括图像、视频、音频、文本和其他数字内容。请参阅白宫《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》(2023 年 10 月 30 日)(“EO 14110”)。4. 美国财政部(财政部),《财政与人工智能》。5. 身份相关漏洞利用是金融机构面临的主要网络犯罪和欺诈问题。金融犯罪执法局于 2024 年 1 月制定并发布了一份《身份金融趋势分析》,概述了在开户、访问账户和交易过程中考虑各种身份流程漏洞利用的框架。请参阅金融犯罪执法局,“金融趋势分析:身份相关可疑活动:2021 年威胁与趋势”(2024 年 1 月 9 日)。
在网络安全领域,恶意行为者可以使用深度伪造技术创建伪造内容并发起社会工程攻击,例如网络钓鱼或鱼叉式网络钓鱼活动。这些风险凸显了迫切需要采取强有力的对策来防范深度伪造产生的网络安全威胁和隐私泄露的有害影响。出现了大量漏洞和威胁。这些漏洞和威胁主要是由生成式人工智能和深度伪造技术的进步推动的。这些技术对语音和视频身份验证系统的完整性构成的迫在眉睫的威胁包括:
数字增强证据 法院可能需要考虑改变证据规则,但在此之前,数字增强证据是音频、视频或经过 AI 软件增强的图像。法官可能需要要求专家对经过 AI 软件增强的图像进行证词。数字增强证据的目的通常是为了提高受到质疑的音频、视频和图像的质量,而不是视频或图像。这与过去的用途不同,例如依靠噪音,因为 AI 可能会用噪音填充图像上的像素,例如,通过嵌入他人的肖像来改变原始图像。
摘要 - 在数字媒体时代,DeepFake技术已成为一个重大关注的问题,通过实现高度现实的合成内容来对各个部门构成威胁。本文介绍了深层技术和检测方法的全面综述。它分析了14个研究论文,涵盖了一系列方法,包括机器学习算法,计算机视觉技术和信号处理方法。探索的关键方面包括面部和语音操纵,多模式融合以及注意力机制的使用。评论重点介绍了检测深击的挑战,例如数据集偏见以及创建者和探测器之间的武器竞赛。此外,它讨论了当前检测技术的局限性以及对可靠的可扩展解决方案的需求。通过对文献的批判性分析,本综述提供了对现有方法的优势和劣势的见解,并确定了未来研究的领域。本文有助于理解深层技术及其对社会的影响,强调开发有效的检测机制以打击合成媒体的传播的重要性。
根据本许可的条款,您可以出于非商业目的复制,重新分配和调整工作,前提是适当地引用了工作。在任何使用这项工作时,不应建议ITU认可任何特定的组织,产品或服务。不允许未经授权使用ITU名称或徽标。如果您适应了工作,则必须根据相同或同等的创意共享许可证许可您的工作。如果您创建了这项工作的翻译,则应添加以下免责声明以及建议的引用:“此翻译不是由国际电信联盟(ITU)创建的。itu对此翻译的内容或准确性不承担任何责任。原始英语版应为绑定和真实版”。有关更多信息,请访问https://creativecommons.org/licenses/by-nc-sa/3.0/igo/
分组并给每个小组两个例子,一个是真实的,一个是人工智能生成的。让学生对这两个例子进行事实核查,看看他们发现了什么。• 是否列出了来源,是否可信?• 作者是谁?他们是专家、研究人员,有资格吗?等等。• 他们写这篇文章的动机是什么?它是否有证据支持和/或经过同行评审?• 你能发现任何偏见吗?• 他们发现的内容是否得到其他可靠来源的证实?• 他们是否分享了事件发生的时间和地点的详细信息?
摘要 - 采用人工智力来创建高度逼真的合成媒体,对隐私,安全性和错误信息传播构成了重大威胁。传统的深层检测方法,主要基于电流神经网络(CNN),通常在有效地识别这些复杂的伪造方面掉落。本项目探讨了平行视觉变压器(PVIT)用于深泡探测器的使用,利用其高级功能在建模复杂模式和视觉数据中的长距离依赖性中进行建模。我们使用NVIDIA A100 GPU的Google Colab培训了由140K真实和假面的数据集培训了PVIT模型。我们的结果表明,PVIT可显着提高检测准确性,精度,召回和鲁棒性,提供有希望的解决方案,以打击达到91.92精度的DeepFake技术所带来的挑战。索引术语 - 深层检测,平行视觉变形,以前,AI生成的,伪造的内容识别,变换,网络安全,数字取证,机器学习,深度学习。
现有的视听深击检测方法主要集中于高级效率,以建模音频和视觉数据之间的矛盾。因此,这些副本通常忽略了更精细的视听伪像,这些伪影是深击所固有的。在此,我们提出了引入细粒机制,以检测空间和时间域中的微妙人物。首先,我们引入了一个本地视听模型,该模型能够捕获容易与音频不一致的小空间区域。为此,采用了基于空间本地距离与注意模块的细粒机制。第二,我们引入了一个暂时的伪假增强,以包括在训练集中结合暂时性不一致的样品。在DFDC和FakeAvceleb数据集上进行的实验证明了所提出的方法在泛化方面与在数据库和交叉数据库设置下的最新技术相比,在概括方面具有优越性。
摘要:DeepFake已成为一项新兴技术,近年来影响网络安全的非法应用。大多数DeepFake检测器都利用基于CNN的模型(例如Xception Network)来区分真实或假媒体;但是,它们在交叉数据集中的表现并不理想,因为它们在当前阶段遭受过度的苦难。因此,本文提出了一种空间一致性学习方法,以三个方面缓解此问题。首先,我们将数据增强方法的选择提高到5,这比我们以前的研究的数据增强方法还多。具体来说,我们捕获了一个视频的几个相等的视频帧,并随机选择了五个不同的数据增强,以获取不同的数据视图以丰富输入品种。其次,我们选择了Swin Transformer作为特征提取器,而不是基于CNN的主链,这意味着我们的方法并未将其用于下游任务,并且可以使用端到端的SWIN变压器对这些数据进行编码,旨在了解不同图像补丁之间的相关性。最后,这与我们的研究中的一致性学习结合在一起,一致性学习能够比监督分类确定更多的数据关系。我们通过计算其余弦距离并应用传统的跨膜损失来调节这种分类损失,从而探索了视频框架特征的一致性。广泛的数据库和跨数据库实验表明,弹药效果可能会在某些开源的深层数据集中产生相对良好的结果,包括FaceForensics ++,DFDC,Celeb-DF和FaceShifter。通过将我们的模型与多种基准模型进行比较,我们的方法在检测深冰媒体时表现出相对强大的鲁棒性。