Deepfakes 是一种合成媒体,通常使用人工智能/机器学习 (AI/ML) 生成,呈现从未发生过的事件的可信且逼真的视频、图片、音频或文本。在我们工作的第二阶段,我们以第一阶段的研究结果为基础,并在三个用例中为组织、立法和监管方法提供了更深入的建议,以应对迫在眉睫的 Deepfakes 身份威胁。第一个用例涉及创作者、所有者和直接用户(如依赖这些内容的媒体组织、非政府组织 (NGO)、执法和法律机构)提供的内容。第二个用例涉及在广播环境中传播的内容,其中社交媒体平台和新闻组织可能被用作传播虚假、误导和最终有害信息的载体,产生不同程度的广泛影响。第三个用例涉及与实时或现场场景相关的内容,用于身份验证和验证,以启用和提供服务和产品。这些场景中的交互的实时或近实时性质使得图像、视频和音频内容尤为重要。我们评估了这些用例,并制定了一个通用的打击深度伪造的框架(包括相关清单),并针对该框架的五个方面提出了未来工作的建议:制定政策和支持立法;识别 Deepfa
摘要 — 供应链中的信用风险管理已成为一个重要的研究领域,因为它对运营稳定性和财务可持续性具有重要意义。供应链参与者之间错综复杂的相互依赖关系意味着信用风险可以跨网络传播,其影响因行业而异。本研究探讨了生成对抗网络 (GAN) 在增强供应链信用风险识别中的应用。GAN 能够生成合成信用风险场景,解决与数据稀缺和数据集不平衡相关的挑战。通过利用 GAN 生成的数据,该模型提高了预测准确性,同时有效地捕获了供应链数据中的动态和时间依赖关系。该研究重点关注三个代表性行业——制造业(钢铁)、分销业(制药)和服务业(电子商务),以评估特定行业的信用风险传染。实验结果表明,基于 GAN 的模型优于传统方法,包括逻辑回归、决策树和神经网络,实现了卓越的准确性、召回率和 F1 分数。研究结果强调了 GAN 在主动风险管理方面的潜力,为缓解供应链中的财务中断提供了强有力的工具。未来的研究可以通过纳入外部市场因素和供应商关系来扩展该模型,以进一步增强预测能力。
1. 参见 31 USC § 5312(a)(2);31 CFR § 1010.100(t)。2. 深度伪造媒体或“deepfakes”是一种合成内容,它使用人工智能/机器学习来创建逼真但不真实的视频、图片、音频和文本。参见美国国土安全部 (DHS),“深度伪造身份的威胁日益增加”(“DHS 报告”)。正如 DHS 进一步指出的那样,深度伪造和合成媒体的威胁并非来自用于创建它们的技术,而是来自人们自然倾向于相信他们所看到的内容,因此,深度伪造和合成媒体不需要特别先进或可信就可以有效传播错误信息或虚假信息。3. 人工智能是一种基于机器的系统,可以针对一组给定的人类定义目标做出影响真实或虚拟环境的预测、建议或决策。 “生成式人工智能”是指模拟输入数据的结构和特征以生成衍生合成内容的人工智能模型类。这可以包括图像、视频、音频、文本和其他数字内容。请参阅白宫《关于安全、可靠和值得信赖地开发和使用人工智能的行政命令》(2023 年 10 月 30 日)(“EO 14110”)。4. 美国财政部(财政部),《财政与人工智能》。5. 身份相关漏洞利用是金融机构面临的主要网络犯罪和欺诈问题。金融犯罪执法局于 2024 年 1 月制定并发布了一份《身份金融趋势分析》,概述了在开户、访问账户和交易过程中考虑各种身份流程漏洞利用的框架。请参阅金融犯罪执法局,“金融趋势分析:身份相关可疑活动:2021 年威胁与趋势”(2024 年 1 月 9 日)。
迪亚拉大学摘要:深度伪造技术可以操纵和伪造音频、视频和图像,由于其具有欺骗和操纵的潜力而引起了广泛关注。随着深度伪造在社交媒体平台上的激增,了解其影响变得至关重要。本研究调查了深度伪造技术在社交媒体上的检测、错误信息和社会影响。通过全面的文献综述,该研究考察了深度伪造的发展和能力、现有的检测技术以及识别它们的挑战。探讨了深度伪造在传播错误信息和虚假信息方面的作用,强调了它们对公众信任和社会凝聚力的潜在影响。研究了深度伪造的社会影响和道德考虑,以及法律和政策应对措施。讨论了缓解策略,包括技术进步和平台政策。通过阐明这些关键方面,本研究旨在帮助更好地理解深度伪造技术对社交媒体的影响,并为未来的检测、预防和政策制定工作提供参考。关键词:Deepfake、社交媒体、人工智能、生成对抗网络、深度神经网络。简介 Deepfake 技术是指使用人工智能 (AI) 技术,特别是机器学习 (ML) 算法,以令人信服的方式操纵和伪造音频、视频和图像,从而欺骗观众。它利用深度神经网络 (DNN)、生成对抗网络 (GAN) 和其他高级算法来创建高度逼真的合成媒体 (Kietzmann 等人,2020 年;Jones,2020 年;Veerasamy & Pieterse.,2022 年)。Deepfake 因其能够生成令人信服的伪造品而备受关注,这些伪造品与真实录音难以区分。该技术采用两步过程:在大量真实媒体数据集上训练 DNN 以学习模式,然后利用这些知识通过更改或替换媒体中的元素来生成新内容 (Nowroozi 等人,2022 年)。在音频处理方面,deepfake 算法可以通过分析源录音中的语音模式、音调和语调来以惊人的准确度模仿声音 (Gao, 2022)。这可以创建与特定个人声音相似的全新音频片段。对于视频和图像处理,deepfake
摘要:DeepFake技术的扩散引起了人们对社交媒体平台上错误信息传播的关注。在本文中,我们提出了一种基于深度学习的方法,用于检测DeepFake推文,特别是由机器生成的推文,以帮助减轻在线错误信息的影响。我们的方法利用FastText嵌入来表示推文文本,并将其与深度学习模型相结合。我们首先预处理文本,然后使用FastText嵌入将它们转换为密集的向量表示。这些嵌入式捕获有关推文内容的语义信息,这对于区分真实和机器生成的推文至关重要。然后,我们将这些嵌入将这些嵌入给深度学习模型,例如卷积神经网络(CNN)或长期短期内存(LSTM)网络,以将推文归类为真实或机器生成的推文。该模型是在标有标记的Tweet数据集上训练的,在该数据集中,使用最先进的文本生成模型合成机器生成的推文。对推文的现实世界数据集的实验结果证明了我们方法在检测机器生成的推文中的有效性。我们的方法实现了很高的准确性,并且优于在社交媒体上进行深层检测的现有方法。总的来说,我们提出的方法为检测机器生成的推文并遏制整个社交媒体平台上的错误信息的扩散提供了强大而有效的解决方案。
摘要 - 综合语音构成中的进步,包括文本到语音(TTS)和语音转换模型(VC)模型,允许产生令人信服的合成声音,通常称为音频深击。这些深击构成了日益增长的威胁,因为对手可以在社交媒体或绕过语音身份验证系统上使用它们来模仿个人,特别是突出的人物,从而产生广泛的社会影响。最先进的验证系统有效地检测语音深击的能力令人震惊。我们提出了一种新型的音频深击检测方法Voiceradar,它通过物理模型增强了机器学习,以近似音频样品中的频率动力学和振荡。这显着增强了检测能力。Voiceradar利用了两个主要的物理模型:(i)多普勒效应了解音频样品的频率变化和(ii)鼓头振动以将复杂的音频信号分解为组件频率。语音形式通过应用这些模型来识别音频信号中的微妙变化或微频。这些微观频率是聚合以计算观察到的频率的,从而捕获了音频的独特签名。该观察到的频率集成到机器学习算法的损耗函数中,从而使算法能够识别将人类生产的音频与AI生成的音频区分开的不同模式。我们构建了一个新的不同数据集,以全面评估Voiceradar,其中包含来自领先的TTS和VC模型的样本。我们的结果表明,语音的表现优于准确识别AI生成的音频样品的现有方法,展示了其作为音频深击检测的强大工具的潜力。
大学,Fayoum,埃及sn1279@fayoum.edu.eg摘要:技术始终是一把双刃剑,随着技术的惊人进步,预计深层效果问题将变得更加普遍和严重。 DeepFake最近造成了很多麻烦,因为它的缺陷大于其优势。 由于Divake对个人的欺骗,原则的不稳定和证据的伪造具有如此重大的影响。 而不是仅仅影响人,而是导致了多次影响整个国家形象的事件。 在本文中,该模型旨在通过检测人们的照片和视频的改变来减轻深层效果并保持个人声誉的负面影响。 具有集成视觉变压器体系结构的模型深入量和交叉vit旨在处理FF ++数据集的预提取面。 该模型从两种不同的角度区分了真实面孔和虚假面孔,每种操作方法的子类检测以及所有类型的总体检测。 所提出的模型取得了出色的结果,并且在面部策略操纵方法中的准确性最高,为98%。 关键字:DeepFake分类,特征图,补丁提取和嵌入,注意力层,视觉变压器。大学,Fayoum,埃及sn1279@fayoum.edu.eg摘要:技术始终是一把双刃剑,随着技术的惊人进步,预计深层效果问题将变得更加普遍和严重。DeepFake最近造成了很多麻烦,因为它的缺陷大于其优势。由于Divake对个人的欺骗,原则的不稳定和证据的伪造具有如此重大的影响。而不是仅仅影响人,而是导致了多次影响整个国家形象的事件。在本文中,该模型旨在通过检测人们的照片和视频的改变来减轻深层效果并保持个人声誉的负面影响。具有集成视觉变压器体系结构的模型深入量和交叉vit旨在处理FF ++数据集的预提取面。该模型从两种不同的角度区分了真实面孔和虚假面孔,每种操作方法的子类检测以及所有类型的总体检测。所提出的模型取得了出色的结果,并且在面部策略操纵方法中的准确性最高,为98%。关键字:DeepFake分类,特征图,补丁提取和嵌入,注意力层,视觉变压器。
摘要:人工智能(AI)的扩散导致了生物识别安全性和数字内容验证的显着进步,但它也实现了复杂的威胁,例如欺骗攻击和深层操纵。安全的视觉项目通过将Mobilenet和Resnext模型集成到统一系统中来解决这些双重挑战。Mobilenet用于实时反欺骗检测,专注于眼睛眨眼和微妙的面部运动等可感性提示,而Resnext则专门识别特定于深层特异性人工制品,包括纹理不一致和照明异常。通过对ASVSPOOF,FaceForensics ++和DeepFake检测挑战(DFDC)等各种数据集进行培训,该系统可实现强大的性能和概括性。集成体系结构提供高精度(97.8%)和实时处理功能(每帧50ms),使其适合于生物识别访问控制,在线身份验证和媒体真实性验证中的应用。本文讨论了未来增强功能的方法,性能指标和潜力,包括多模式集成和持续学习框架,以确保系统随着新兴威胁而演变。
摘要 - 在数字媒体时代,DeepFake技术已成为一个重大关注的问题,通过实现高度现实的合成内容来对各个部门构成威胁。本文介绍了深层技术和检测方法的全面综述。它分析了14个研究论文,涵盖了一系列方法,包括机器学习算法,计算机视觉技术和信号处理方法。探索的关键方面包括面部和语音操纵,多模式融合以及注意力机制的使用。评论重点介绍了检测深击的挑战,例如数据集偏见以及创建者和探测器之间的武器竞赛。此外,它讨论了当前检测技术的局限性以及对可靠的可扩展解决方案的需求。通过对文献的批判性分析,本综述提供了对现有方法的优势和劣势的见解,并确定了未来研究的领域。本文有助于理解深层技术及其对社会的影响,强调开发有效的检测机制以打击合成媒体的传播的重要性。
最近的研究表明,深度学习模型可以根据种族和性别等受保护的类别进行区分。在这项工作中,我们评估了深度伪造数据集和检测模型在受保护子群体中的偏差。使用按种族和性别平衡的面部数据集,我们检查了三种流行的深度伪造检测器,发现不同种族之间的预测性能存在很大差异,不同子群体之间的错误率差异高达 10.7%。仔细观察就会发现,广泛使用的 FaceForensics++ 数据集绝大多数由白种人组成,其中大多数是白种人女性。我们对深度伪造的种族分布的调查显示,用于创建深度伪造作为正面训练信号的方法往往会产生“不规则”的面孔——当一个人的脸被换到另一个不同种族或性别的人身上时。这导致检测器学习到前景面孔和假象之间的虚假相关性。此外,当使用 Face X-Rays 的混合图像 (BI) 数据集对检测器进行训练时,我们发现这些检测器会对某些种族群体(主要是亚洲女性)产生系统性歧视。