网络虚假信息已成为学术界研究的一大焦点,也是记者和广大公众关注的一大原因。尽管多种形式的虚假信息已经在网上盛行,但一些评论员担心,新技术——尤其是用于生成深度伪造视频的技术——将加剧虚假信息问题 (Fallis, 2021 ; Foer, 2018 ; Rini, 2020 ; Warzel, 2018 )。人们很自然地会认为,既然用于欺骗的新技术是问题,那么用于检测的新技术就是解决方案。因此,人们已经投入了大量的心思和投资来研究用于检测深度伪造和其他形式的虚假信息的技术。在本文中,我认为,解决深度伪造所带来问题的技术解决方案非常有限。在简要概述了深度伪造如何威胁
迪亚拉大学摘要:深度伪造技术可以操纵和伪造音频、视频和图像,由于其具有欺骗和操纵的潜力而引起了广泛关注。随着深度伪造在社交媒体平台上的激增,了解其影响变得至关重要。本研究调查了深度伪造技术在社交媒体上的检测、错误信息和社会影响。通过全面的文献综述,该研究考察了深度伪造的发展和能力、现有的检测技术以及识别它们的挑战。探讨了深度伪造在传播错误信息和虚假信息方面的作用,强调了它们对公众信任和社会凝聚力的潜在影响。研究了深度伪造的社会影响和道德考虑,以及法律和政策应对措施。讨论了缓解策略,包括技术进步和平台政策。通过阐明这些关键方面,本研究旨在帮助更好地理解深度伪造技术对社交媒体的影响,并为未来的检测、预防和政策制定工作提供参考。关键词:Deepfake、社交媒体、人工智能、生成对抗网络、深度神经网络。简介 Deepfake 技术是指使用人工智能 (AI) 技术,特别是机器学习 (ML) 算法,以令人信服的方式操纵和伪造音频、视频和图像,从而欺骗观众。它利用深度神经网络 (DNN)、生成对抗网络 (GAN) 和其他高级算法来创建高度逼真的合成媒体 (Kietzmann 等人,2020 年;Jones,2020 年;Veerasamy & Pieterse.,2022 年)。Deepfake 因其能够生成令人信服的伪造品而备受关注,这些伪造品与真实录音难以区分。该技术采用两步过程:在大量真实媒体数据集上训练 DNN 以学习模式,然后利用这些知识通过更改或替换媒体中的元素来生成新内容 (Nowroozi 等人,2022 年)。在音频处理方面,deepfake 算法可以通过分析源录音中的语音模式、音调和语调来以惊人的准确度模仿声音 (Gao, 2022)。这可以创建与特定个人声音相似的全新音频片段。对于视频和图像处理,deepfake
• 版权——从他人那里学到的生成式人工智能 • 幻觉——生成式人工智能是不可预测的 • 虚假信息和深度伪造——人工智能的恶意使用 • 披露——承认人工智能的使用 • 颠覆——人工智能取代人类工人
在当今的数字时代,合成媒体已成为现代技术惊人能力的证明。这些数字化创作是通过人工智能 (AI) 和机器学习的进步而实现的,开辟了一个充满创意可能性的世界。然而,在这些进步中出现了一个独特且令人担忧的子集,即“深度伪造”。深度伪造可以定义为使用复杂的人工智能技术进行的超现实音频或视频处理,其恶意目的是欺诈、欺骗或操纵某人。这些操纵的执行如此令人信服,以至于它们通常与真实内容难以区分,因此具有潜在的欺骗性和危害性。因此,虽然合成媒体整体上对各个行业都有积极贡献,但深度伪造需要采取具体而严格的监管方式。
Deepfake技术的兴起通过引入一种新的方式来创建高度现实和令人信服的数字内容,通常是视频或图像,在这种方法中,通常不同意将一个人的相似之处替换为他人的相似之处。这项技术未经他们的同意,带来了实质性的风险,例如误导了对人的误导性,侵犯了个人权利,并遭受了潜在地位和潜在地位。目前,围绕Deepfakes的法律框架仍在发展中,创作者目前享有一定程度的免疫侵权责任。在这一不断发展的景观中,一个具有前瞻性的营销团队在其促销活动中尝试了深刻的效果,其中包括一个著名名人认可其产品的深层发展。尽管法律界限可以允许这种变革性的作品,但道德维度需要中心。
(a) 至 (b):是的,先生。政府的政策旨在确保印度的互联网是开放、安全和值得信赖的,并对我们所有的数字 Nagriks 负责。为了帮助实现这一目标,通过数字印度对话 (“DID”) 进行了多次行业利益相关者磋商,特别是针对新出现的虚假信息问题,包括深度伪造,这些虚假信息完全是由人工智能驱动的虚假信息。电子和信息技术部 (“MeitY”) 作为其对非法内容(包括虚假信息/人工智能驱动的虚假信息,即深度伪造)零容忍政策的一部分,并为了强制 100% 遵守这些政策,已于 2023 年 12 月 26 日向所有中介机构发出咨询意见,指示他们使用条款应完全符合《信息技术(中介指南和数字媒体道德规范)规则》第 3(1)(b) 条,2021 年(“IT 规则,2021 年”)。该咨询意见包括以下指示:
深度伪造 1. 该法案提议禁止发布数字生成或操纵的在线选举广告,这些广告真实地描述了选举候选人在从发布令状到投票日投票结束期间所说或所做的事,但实际上他们并没有说过或做过。 • 除了选举之外,深度伪造和其他形式的操纵内容可能会对网络用户造成严重危害。人工智能生成内容的创作者和分发者有责任在选举期间和选举之外营造一个安全的信息空间。 信息通信媒体发展局 (IMDA) 将推出一项新的行为准则,要求指定的社交媒体服务采取措施,防止和打击其服务中数字操纵内容的滥用。 IMDA 将在未来几个月与社交媒体服务合作,制定准则的细节。 2. 增长——一个帮助我们成长的智慧国家
同上在XVI。 29 A Greene,“国防军首席安格斯·坎贝尔警告说,深击和AI将推动'真相衰败'的时代” ABC新闻(在线)(在线)(2023年9月15日); D Hurst, “Democracies face ‘truth decay' as AI blurs fact and fiction, warns head of Australia's military” The Guardian (online) (14 September 2023) 。 30 DPP V Khan [2024] Actsc 19 at [39] ff(Mossop J)。 本文稍后在更长的时间内提到此决定。 31参见Riana Pfefferkorn,“法庭上的'Deepfakes'”(2020)29(2)波士顿大学公共利益法律杂志245;艾莉·达德利(Ellie Dudley),“‘摄像机确实说谎':新南威尔士州法院对AI的关注”(在线,2024年1月21日)。同上在XVI。29 A Greene,“国防军首席安格斯·坎贝尔警告说,深击和AI将推动'真相衰败'的时代” ABC新闻(在线)(在线)(2023年9月15日); D Hurst, “Democracies face ‘truth decay' as AI blurs fact and fiction, warns head of Australia's military” The Guardian (online) (14 September 2023) 。30 DPP V Khan [2024] Actsc 19 at [39] ff(Mossop J)。本文稍后在更长的时间内提到此决定。31参见Riana Pfefferkorn,“法庭上的'Deepfakes'”(2020)29(2)波士顿大学公共利益法律杂志245;艾莉·达德利(Ellie Dudley),“‘摄像机确实说谎':新南威尔士州法院对AI的关注”(在线,2024年1月21日)。
通讯作者:龚大峰(289133894@qq.com)。摘要 近年来,人工智能、深度学习和生成对抗网络(GAN)在深度伪造检测和取证方面的应用已成为一个新兴的研究领域。GAN自提出以来就得到了广泛的研究,并产生了许多应用来生成视频和图像等内容。这些新技术在许多领域的应用使得区分真假内容变得越来越困难。本研究分析了百余篇已发表的与GAN技术在各个领域应用生成数字多媒体数据相关的论文,阐述了可用于识别深度伪造的技术、深度伪造技术的好处和威胁以及如何打击深度伪造。研究结果表明,尽管深度伪造对我们的社会、政治和商业构成了重大威胁,但列出了多种手段来限制不道德和非法深度伪造的产生。最后,该研究还提出了其局限性以及未来可能的研究方向和建议。关键词:人工智能、深度学习、Deepfake、取证、GANs
摘要:尽管美国变得越来越多样化,但生成的人工智能和相关技术威胁到破坏真正的代表性民主。剩下的,AI将加剧现有的现有挑战,例如种族两极分化,文化焦虑,反民主态度,种族投票稀释和抑制选民。合成视频和音频(“ Deepfakes”)受到大多数流行的关注,但只是冰山一角。对种族量身定制的虚假信息,自动选举管理中的种族偏见,种族针对性的网络攻击以及AI驱动的监视的微靶向,这使种族正义声称只是AI如何威胁民主国家的一些例子。不幸的是,现有法律(包括《投票权法》)不太可能应对挑战。但是,如果政策制定者,激进主义者,