摘要 人工智能的概念在历史上一直占有重要地位,在当代也一直是人们经常讨论和探索的主题。人工智能 (AI) 是众多文学作品和电影中反复出现的主题,其在未来背景下具有重大意义。对人工智能的主题探索一直是数十年来创造性努力的主题。近年来,深度伪造技术已成为人工智能领域的一个突出主题。深度伪造技术被广泛认为是一项基于人工智能和深度学习的创新。近年来,众多深度伪造应用对公众产生了巨大影响。除了制作针对高知名度人物的操纵电影外,很明显,深度伪造技术在多个领域都具有许多潜在应用。本研究的目的是探索深度伪造技术在许多领域的潜在应用。本研究通过集中学习概念并参考人工智能技术来研究深度伪造技术。该研究通过进行全面的文献分析并分析其在不同领域的使用实例,对深度伪造技术的众多应用进行了分类。根据研究结果,可以将深度伪造技术的重要应用分为四个不同的类别。前面提到的类别包括艺术和娱乐、广告和营销、电影业、政治传播和媒体。关键词:人工智能、深度学习、深度伪造、超现实。
迪亚拉大学摘要:深度伪造技术可以操纵和伪造音频、视频和图像,由于其具有欺骗和操纵的潜力而引起了广泛关注。随着深度伪造在社交媒体平台上的激增,了解其影响变得至关重要。本研究调查了深度伪造技术在社交媒体上的检测、错误信息和社会影响。通过全面的文献综述,该研究考察了深度伪造的发展和能力、现有的检测技术以及识别它们的挑战。探讨了深度伪造在传播错误信息和虚假信息方面的作用,强调了它们对公众信任和社会凝聚力的潜在影响。研究了深度伪造的社会影响和道德考虑,以及法律和政策应对措施。讨论了缓解策略,包括技术进步和平台政策。通过阐明这些关键方面,本研究旨在帮助更好地理解深度伪造技术对社交媒体的影响,并为未来的检测、预防和政策制定工作提供参考。关键词:Deepfake、社交媒体、人工智能、生成对抗网络、深度神经网络。简介 Deepfake 技术是指使用人工智能 (AI) 技术,特别是机器学习 (ML) 算法,以令人信服的方式操纵和伪造音频、视频和图像,从而欺骗观众。它利用深度神经网络 (DNN)、生成对抗网络 (GAN) 和其他高级算法来创建高度逼真的合成媒体 (Kietzmann 等人,2020 年;Jones,2020 年;Veerasamy & Pieterse.,2022 年)。Deepfake 因其能够生成令人信服的伪造品而备受关注,这些伪造品与真实录音难以区分。该技术采用两步过程:在大量真实媒体数据集上训练 DNN 以学习模式,然后利用这些知识通过更改或替换媒体中的元素来生成新内容 (Nowroozi 等人,2022 年)。在音频处理方面,deepfake 算法可以通过分析源录音中的语音模式、音调和语调来以惊人的准确度模仿声音 (Gao, 2022)。这可以创建与特定个人声音相似的全新音频片段。对于视频和图像处理,deepfake
随着操纵媒体的复杂性下降,利用虚假信息的风险急剧增加。以前,使用专业软件制作复杂的虚假信息可能需要专业人员几天到几周的时间,但现在,这些虚假信息可以在极短的时间内制作出来,即使技术专长有限甚至没有。这在很大程度上是由于计算能力和深度学习的进步,这不仅使制作虚假多媒体变得更容易,而且批量生产成本更低。此外,市场上现在充斥着免费、易于获取的工具(一些由深度学习算法提供支持),使多媒体的创建或操纵基本上是即插即用的。因此,这些公开可用的技术价值增加,并成为各种对手广泛使用的工具,使欺诈和虚假信息能够利用目标个人和组织。这些工具的民主化已成为 2023 年最大的风险之一。[7]
人工智能 (AI) 是一种已融入人类生活的现象,技术与人类之间的这种共生关系将继续存在。AI 的一种用途是深度伪造。将 AI 用于深度伪造可以说是最具争议的话题之一,因为它引发了道德问题。深度伪造是经过令人信服的修改和操纵的图像或录音,以歪曲某人的行为或言论,而实际上他们并没有做或说。这些操纵在政治舞台上蓬勃发展,最近在色情行业中也是如此,其中女性的脸被蒙在其他身体上以产生视频幻觉,导致非自愿性形象虐待和其他伤害。毫不奇怪,深度伪造技术的恶意使用促使出台了《美国国防授权法案》(NDAA)等监管立法,以及最近批准的《数字服务法案》(DSA)修正案,将恶意深度伪造定为犯罪。学者、倡导者和受害者继续呼吁制定更具体、更严格的法律来规范深度伪造,并对不遵守规定的行为处以罚款。本文及时分析了作为一种基于图像的性虐待的深度伪造色情内容,以及法律对恶意使用深度伪造技术的立场。还讨论了《通用数据保护条例》下的数据保护问题,以及补救、控制和根除的政策建议和措施。关键词:人工智能、网络欺凌、深度伪造、数字媒体、道德、法律、图像处理、性虐待 介绍
摘要-Deepfakes对网络安全构成了不断发展的威胁,该威胁要求开发自动化对策。虽然大量的法医研究已致力于对深层的定义和定位,但逆转伪造为真实的解决方案尚待开发。在这项研究中,我们引入了网络疫苗接种,以赋予深层侵害的免疫力。类似于生物疫苗接种,该生物疫苗接种会在实际病原体中注射抗原在感染之前诱导免疫力,网络疫苗接种模拟了深层疫苗并进行对抗性训练以建立防御性免疫系统。旨在使用有限的计算资源来建立攻击无知的免疫力,我们建议用一次性压倒性的攻击模拟各种深击:面部掩盖。所提出的免疫系统由用于诱导免疫力和用于恢复面部含量的中源的胶囊组成。实验评估表明,有效的免疫力可以面对替换,面部重演和各种类型的腐败。
泽连斯基办公室立即否认了其真实性,并指出这正是他们在战前警告过的那种“深度伪造”。尽管如此,作为武装冲突中首次高调使用深度伪造的事件,该事件标志着信息行动的转折点。欺骗和媒体操纵一直是战时通信的一部分,但此前几乎没有任何冲突参与者能够生成对手政治官员和军事领导人的逼真音频、视频和文本。随着人工智能 (AI) 变得越来越复杂,计算成本不断下降,深度伪造对在线信息环境构成的挑战只会越来越大。政策制定者和政府官员需要开发强大的系统来实时监控和验证公共和私人信息,同时还要评估何时(如果有的话)自己利用这项技术。
虽然这项技术最广泛地与媒体操纵和虚假信息传播有关,通常被称为深度伪造,但它越来越多地被用于积极的应用,并被整合到从娱乐到人道主义努力和教育的各个领域。随着人工智能生成的角色在不同行业的适应和使用,我们看到了在学习、隐私、电信、艺术和治疗等各个领域都有重大积极应用的潜力。在本次研讨会上,我们将召集人机交互、人工智能和相关领域的研究人员,探讨使用人工智能生成的角色和相关形式的合成媒体的积极应用、设计考虑和道德影响。
虽然这项技术最广泛地与媒体操纵和错误信息的传播有关,通常被称为深度伪造,但它越来越多地被用于积极的应用,并融入从娱乐到人道主义努力和教育的各个领域。随着人工智能生成的角色在不同行业的适应和使用,我们看到了在学习、隐私、电信、艺术和治疗等各种领域都有重大积极应用的潜力。在本次研讨会上,我们将召集人机交互、人工智能和相关领域的研究人员,探讨使用人工智能生成的角色和相关形式的合成媒体的积极应用、设计考虑和道德影响。
Deepfakes 是一种合成媒体,通常使用人工智能/机器学习 (AI/ML) 生成,呈现从未发生过的事件的可信且逼真的视频、图片、音频或文本。在我们工作的第二阶段,我们以第一阶段的研究结果为基础,并在三个用例中为组织、立法和监管方法提供了更深入的建议,以应对迫在眉睫的 Deepfakes 身份威胁。第一个用例涉及创作者、所有者和直接用户(如依赖这些内容的媒体组织、非政府组织 (NGO)、执法和法律机构)提供的内容。第二个用例涉及在广播环境中传播的内容,其中社交媒体平台和新闻组织可能被用作传播虚假、误导和最终有害信息的载体,产生不同程度的广泛影响。第三个用例涉及与实时或现场场景相关的内容,用于身份验证和验证,以启用和提供服务和产品。这些场景中的交互的实时或近实时性质使得图像、视频和音频内容尤为重要。我们评估了这些用例,并制定了一个通用的打击深度伪造的框架(包括相关清单),并针对该框架的五个方面提出了未来工作的建议:制定政策和支持立法;识别 Deepfa
信息战正在升级。虚假信息战的主要工具是简单的模因:在社交媒体上分享的图像、视频或文本,传达特定的想法或感受(Sprout Social,未注明日期)。俄罗斯利用模因针对 2016 年美国大选(DiResta 等人,2019 年);中国利用模因针对香港抗议者(Wong、Shepherd 和 Liu,2019 年);那些试图质疑 2019 年冠状病毒病疫苗有效性的人将模因用作最喜欢的工具(Wasike,2022 年;Helmus 等人,2020 年)。许多人认为,表情包以及其他常见且看似过时的虚假信息工具(例如虚假新闻网页和故事以及尖锐的 Facebook 帖子)已成功破坏了人们对美国大选的信心(大西洋理事会数字取证研究实验室,2021 年),在美国选民中制造了分裂(Posard 等人,2020 年),并增加了阴谋论的采纳(反数字仇恨中心,2021 年;Marcellino 等人,2021 年)。然而,计算机科学和人工智能 (AI) 的进步为传播虚假信息提供了一种新的、极具吸引力的方法:深度伪造。深度伪造视频是
