2024 年 4 月 28 日 — AI 艺术作品使用数十亿张图像和艺术范例生成。当您输入提示时,AI 艺术作品生成器会为您构建一幅图像。
第一次提到深度伪造是在 2016 年美国总统大选一年多后,那次大选以虚假新闻现象为标志(Gunther 等人,2018 年;Lee,2019 年)。许多人担心接下来的 2020 年总统大选也会充斥着虚假信息,尤其是虚假新闻和深度伪造的结合,但这并没有发生(Meneses,2021 年)。对这次选举影响最大的深度伪造可能是 2019 年 5 月涉及纳西·佩洛西的深度伪造:当时的美国众议院议长看起来喝醉了,说话含糊不清,好像喝醉了一样(Stewart,2019 年)。关键在于,这不是深度伪造,因为它没有使用人工智能;相反,它是一个廉价伪造(或不太常用的浅层伪造),一段使用比深度伪造技术简单得多的手段编辑的视频(Pawelec,2022 年)。正如 Paris & Donovan (2019) 所说,深度伪造和廉价伪造的共存增加了区分两者的难度。这种类型的虚假信息可能对政治话语和未来选举产生的影响(Appel & Prietzel,2022)并非无关紧要,因为它是故意改变的视听内容,并通过社交媒体进行放大。至于佩洛西的视频,由于它是基于编辑软件或只是音频音调的变化,因此更容易做到,也更容易检测,这与今天的假新闻类似。这个例子强调了了解每一种现象的本质的必要性,尽可能正确地定义它,“以协助制定一致且理论上连贯的深度伪造定义”(Whittaker 等人,2023 年)。
摘要这项研究研究了Deepfake和开源智能(OSINT)在使虚假运动及其社会后果的作用。使用DeepFake检测挑战(DFDC)数据集进行技术评估,OSINT网络和情感分析的社交媒体数据集以及来自全球虚假信息索引的公众舆论数据,研究应用机器学习分类,网络分析,情感分析和中断时间序列(ITS)分析。技术评估的检测准确性为0.73,精度为0.75,召回0.70,确定了识别合成介质的增强区域。OSINT分析显示,虚假信息的关键放大器,用户1的学位中心性为0.263,betweensess中心性为0.135。 情感分析显示,平均情绪得分为-0.085,而其分析记录了公共信任后事件事件的9.76点下降。 建议包括开发自适应AI检测系统,实施全球监管措施,促进公共媒体素养以及鼓励道德的OSINTOSINT分析显示,虚假信息的关键放大器,用户1的学位中心性为0.263,betweensess中心性为0.135。情感分析显示,平均情绪得分为-0.085,而其分析记录了公共信任后事件事件的9.76点下降。建议包括开发自适应AI检测系统,实施全球监管措施,促进公共媒体素养以及鼓励道德的OSINT
摘要 — 近期所谓的深度伪造的现实创作和传播对社会生活、公民休息和法律构成了严重威胁。名人诽谤、选举操纵和深度伪造作为法庭证据只是深度伪造的一些潜在后果。基于 PyTorch 或 TensorFlow 等现代框架、FaceApp 和 REFACE 等视频处理应用程序以及经济的计算基础设施的开源训练模型的可用性简化了深度伪造的创作。大多数现有检测器专注于检测换脸、口型同步或木偶大师深度伪造,但几乎没有探索用于检测所有三种类型深度伪造的统一框架。本文提出了一个统一的框架,利用混合面部标志和我们新颖的心率特征的融合功能来检测所有类型的深度伪造。我们提出了新颖的心率特征,并将它们与面部标志特征融合,以更好地提取假视频的面部伪影和原始视频中的自然变化。我们利用这些特征训练了一个轻量级的 XGBoost,以对 deepfake 和真实视频进行分类。我们在包含所有类型 deepfake 的世界领袖数据集 (WLDR) 上评估了我们框架的性能。实验结果表明,与比较 deepfake 检测方法相比,所提出的框架具有更优异的检测性能。将我们的框架与深度学习模型候选模型 LSTM-FCN 进行性能比较,结果表明,所提出的模型取得了类似的结果,但它更具可解释性。索引术语 —Deepfakes、多媒体取证、随机森林集成、树提升、XGBoost、Faceswap、Lip sync、Puppet Master。
随着深度伪造技术的快速发展,深度伪造语音的检测变得越来越具有挑战性。在本文中,我们提出了一种用于深度伪造语音检测的混合架构,将用于特征提取的自监督学习框架与分类器头相结合,形成端到端模型。我们的方法结合了音频级和特征级增强技术。具体而言,我们介绍并分析了用于增强原始音频频谱图和在训练期间增强特征表示的各种掩蔽策略。我们在特征提取器的预训练阶段加入了压缩增强,以解决小型单语言数据集的局限性。我们在 ASVSpoof5(ASVSpoof 2024)挑战赛上对该模型进行了评估,在封闭条件下在 Track 1 中取得了最佳结果,等错误率为 4.37%。通过使用不同的预训练特征提取器,该模型实现了 3.39% 的增强 EER。我们的模型表现出了抵御未知深度伪造攻击的强大性能,并在不同的编解码器中表现出了强大的泛化能力。
(SHRI JITIN PRASADA)(a)至 d):印度政府强调“全民人工智能”的概念,这与总理在全国范围内培育和推动尖端技术应用的愿景相一致。这一举措旨在确保人工智能惠及社会各界,推动创新和增长。政府致力于利用人工智能 (AI) 的力量,在医疗、农业、教育、政府治理、新闻部和其他领域造福人民。与此同时,政府也意识到人工智能带来的风险。幻觉、偏见、错误信息和深度伪造是人工智能带来的一些挑战。为了应对人工智能的挑战和风险,政府认识到需要建立护栏以确保人工智能的安全和可信。因此,中央政府在与相关利益相关方进行广泛的公众协商后,于 2021 年 2 月 25 日公布了《信息技术(中介机构指南和数字媒体道德规范)规则》2021 年(“2021 年 IT 规则”),该规则随后于 2022 年 10 月 28 日和 2023 年 4 月 6 日进行了修订。2021 年 IT 规则对中介机构(包括社交媒体中介机构和平台)规定了具体的法律义务,以确保他们对安全可信的互联网负责,包括迅速采取行动消除被禁止的虚假信息、明显虚假的信息和深度伪造。如果中介机构未能遵守 2021 年 IT 规则规定的法律义务,他们将失去《2000 年信息技术法》(“IT 法”)第 79 条规定的避风港保护,并应根据任何现行法律承担相应的诉讼或起诉。 《2023 年数字个人数据保护法》于 2023 年 8 月 11 日颁布,该法案规定数据受托人有义务保护数字个人数据,追究其责任,同时确保数据主体的权利和义务。政府已成立人工智能咨询小组,针对印度特定的监管人工智能框架,由印度总理首席科学顾问 (PSA) 担任主席,来自学术界、工业界和政府的不同利益相关者参与,目标是解决与制定负责任的人工智能框架有关的所有问题,以实现人工智能的安全和可信开发和部署。
数字增强证据 法院可能需要考虑改变证据规则,但在此之前,数字增强证据是音频、视频或经过 AI 软件增强的图像。法官可能需要要求专家对经过 AI 软件增强的图像进行证词。数字增强证据的目的通常是为了提高受到质疑的音频、视频和图像的质量,而不是视频或图像。这与过去的用途不同,例如依靠噪音,因为 AI 可能会用噪音填充图像上的像素,例如,通过嵌入他人的肖像来改变原始图像。
根据本许可的条款,您可以出于非商业目的复制,重新分配和调整工作,前提是适当地引用了工作。在任何使用这项工作时,不应建议ITU认可任何特定的组织,产品或服务。不允许未经授权使用ITU名称或徽标。如果您适应了工作,则必须根据相同或同等的创意共享许可证许可您的工作。如果您创建了这项工作的翻译,则应添加以下免责声明以及建议的引用:“此翻译不是由国际电信联盟(ITU)创建的。itu对此翻译的内容或准确性不承担任何责任。原始英语版应为绑定和真实版”。有关更多信息,请访问https://creativecommons.org/licenses/by-nc-sa/3.0/igo/
现有的视听深击检测方法主要集中于高级效率,以建模音频和视觉数据之间的矛盾。因此,这些副本通常忽略了更精细的视听伪像,这些伪影是深击所固有的。在此,我们提出了引入细粒机制,以检测空间和时间域中的微妙人物。首先,我们引入了一个本地视听模型,该模型能够捕获容易与音频不一致的小空间区域。为此,采用了基于空间本地距离与注意模块的细粒机制。第二,我们引入了一个暂时的伪假增强,以包括在训练集中结合暂时性不一致的样品。在DFDC和FakeAvceleb数据集上进行的实验证明了所提出的方法在泛化方面与在数据库和交叉数据库设置下的最新技术相比,在概括方面具有优越性。