最近的研究表明,深度学习模型可以根据种族和性别等受保护的类别进行区分。在这项工作中,我们评估了深度伪造数据集和检测模型在受保护子群体中的偏差。使用按种族和性别平衡的面部数据集,我们检查了三种流行的深度伪造检测器,发现不同种族之间的预测性能存在很大差异,不同子群体之间的错误率差异高达 10.7%。仔细观察就会发现,广泛使用的 FaceForensics++ 数据集绝大多数由白种人组成,其中大多数是白种人女性。我们对深度伪造的种族分布的调查显示,用于创建深度伪造作为正面训练信号的方法往往会产生“不规则”的面孔——当一个人的脸被换到另一个不同种族或性别的人身上时。这导致检测器学习到前景面孔和假象之间的虚假相关性。此外,当使用 Face X-Rays 的混合图像 (BI) 数据集对检测器进行训练时,我们发现这些检测器会对某些种族群体(主要是亚洲女性)产生系统性歧视。
摘要 利用现代新兴技术,很难区分经过核实的和虚假的媒体新闻和更新。使用人工智能 (AI) 制作深度伪造的照片和视频,展示某人在现实中从未说过和做过的事情,这是促成这一现象的最新创新之一。集中的深度伪造很容易影响数百万公民,并对我们的文化、他们的可访问性和社交网络速度产生不利影响。本文分析了各种广泛传播的互联网新闻报道,尽管关于这一主题的文献很少,但是为了探索深度伪造,以及谁创造了它们,深度伪造的技术优势和风险有多大,哪些深度伪造的例子会发生以及如何衡量深度伪造。我们将使用定性研究方法来收集可用信息,并根据调查结果,最后总结讨论并提出建议。关键词:深度伪造、智能技术、供应链管理、区块链
通讯作者:龚大峰(289133894@qq.com)。摘要 近年来,人工智能、深度学习和生成对抗网络(GAN)在深度伪造检测和取证方面的应用已成为一个新兴的研究领域。GAN自提出以来就得到了广泛的研究,并产生了许多应用来生成视频和图像等内容。这些新技术在许多领域的应用使得区分真假内容变得越来越困难。本研究分析了百余篇已发表的与GAN技术在各个领域应用生成数字多媒体数据相关的论文,阐述了可用于识别深度伪造的技术、深度伪造技术的好处和威胁以及如何打击深度伪造。研究结果表明,尽管深度伪造对我们的社会、政治和商业构成了重大威胁,但列出了多种手段来限制不道德和非法深度伪造的产生。最后,该研究还提出了其局限性以及未来可能的研究方向和建议。关键词:人工智能、深度学习、Deepfake、取证、GANs
2019 年,人工智能伙伴关系 (PAI) 动员了其多元化的合作伙伴社区,致力于解决人工智能对媒体诚信和公共话语的影响——这是一个需要协调一致、共同关注的及时话题。在本文件中,PAI 分享了我们与人工智能和媒体诚信指导委员会合作以及其对 Deepfake 检测挑战 (DFDC) 的指导的见解。我们提出了六个关键见解和相关建议,可以为未来合成媒体 1 检测工作提供参考,其中许多建议扩展到人工智能及其对媒体诚信的影响。在此过程中,我们还记录了 PAI 与 DFDC 的合作,并分享了我们为人工智能发展开展有意义的多利益相关方工作的经验。这些见解和建议强调了信息生态系统参与者之间协调与合作的重要性。记者、事实核查人员、政策制定者、民间社会组织以及除大型科技公司以外的其他人,他们正在应对全球合成媒体的潜在恶意使用,他们需要更多地使用有用的技术检测工具和其他资源来评估内容。同时,这些工具和资源必须对那些试图生成恶意合成内容以逃避检测的对手不可访问。总体而言,检测模型和工具必须以合成媒体检测的现实动态为基础,并充分了解其影响和实用性。