来自德国国家图书馆的书目信息德国国家图书馆将此出版物列入德国国家书目;详细的书目数据可在互联网上查阅,网址为:http://dnb.d-nb.de。版权所有 © 奥地利计算机协会 www.ocg.at 出版商:Facultas Verlags- und Buchhandels AG,1050 Vienna,奥地利 保留所有权利,特别是复制、分发和翻译的权利。 © 奥地利计算机协会 www.ocg.at 排版:奥地利计算机协会 印刷:Facultas Verlags- und Buchhandels AG 1050 Vienna, Stolberggasse 26 ISBN(facultas Verlag)978-3-7089-2274-4 ISBN(奥地利计算机协会)978-3 -903035-31-7
我们的研究表明,变形器还会对医学和网络安全造成虚假信息威胁。为了说明这一问题的严重性,我们在讨论网络安全漏洞和攻击信息的在线公开资源上对 GPT-2 变形器模型进行了微调。网络安全漏洞是计算机系统的弱点,而网络安全攻击则是利用漏洞的行为。例如,如果漏洞是 Facebook 的弱密码,那么利用该漏洞的攻击就是黑客破解您的密码并侵入您的帐户。
最近的研究表明,深度学习模型可以根据种族和性别等受保护的类别进行区分。在这项工作中,我们评估了深度伪造数据集和检测模型在受保护子群体中的偏差。使用按种族和性别平衡的面部数据集,我们检查了三种流行的深度伪造检测器,发现不同种族之间的预测性能存在很大差异,不同子群体之间的错误率差异高达 10.7%。仔细观察就会发现,广泛使用的 FaceForensics++ 数据集绝大多数由白种人组成,其中大多数是白种人女性。我们对深度伪造的种族分布的调查显示,用于创建深度伪造作为正面训练信号的方法往往会产生“不规则”的面孔——当一个人的脸被换到另一个不同种族或性别的人身上时。这导致检测器学习到前景面孔和假象之间的虚假相关性。此外,当使用 Face X-Rays 的混合图像 (BI) 数据集对检测器进行训练时,我们发现这些检测器会对某些种族群体(主要是亚洲女性)产生系统性歧视。
摘要目的:分析有关免疫生物学的虚假新闻,在世界卫生组织的3CS模型(自信,自满和便利)中用作参考疫苗犹豫。方法:这是一项探索性定性研究,使用内容分析来分析三个国家新闻检查网站的假新闻。结果:分析了与免疫生物学有关的二十个假新闻,2018年出版了55%,与黄热病疫苗有关63%。从对结果的分析中出现了两个经验类别:免疫生物学具有死亡/续集的潜在风险;免疫生物学无效。结论:假新闻有可能基于3CS模型产生疫苗犹豫。因此,有必要重新考虑不低估不平等巴西社会的不对称和不平等现象的交流健康实践。考虑到护理是免疫室中最大的劳动力,因此需要专业人员参与作为对人群免疫生物学中真实信息的积极工具。
一种名为Deepfakes的新现象在视频操纵中构成了严重的威胁。基于AI的技术已经提供了易于使用的方法来创建极其现实的视频。在多媒体取证的一边,能够个性化这种假件变得更加重要。在这项工作中,提出了一种新的法医技术来检测假和原始视频序列;它基于使用受过训练的CNN,以通过利用光流场来区分视频序列的时间结构中可能的运动差异。获得的结果突出显示了最先进的方法,通常只诉诸单个视频帧。此外,提出的基于光流的检测方案在更现实的跨手术操作方案中还提供了卓越的鲁棒性,甚至可以与基于框架的方法相结合以提高其全球效率。
摘要 利用现代新兴技术,很难区分经过核实的和虚假的媒体新闻和更新。使用人工智能 (AI) 制作深度伪造的照片和视频,展示某人在现实中从未说过和做过的事情,这是促成这一现象的最新创新之一。集中的深度伪造很容易影响数百万公民,并对我们的文化、他们的可访问性和社交网络速度产生不利影响。本文分析了各种广泛传播的互联网新闻报道,尽管关于这一主题的文献很少,但是为了探索深度伪造,以及谁创造了它们,深度伪造的技术优势和风险有多大,哪些深度伪造的例子会发生以及如何衡量深度伪造。我们将使用定性研究方法来收集可用信息,并根据调查结果,最后总结讨论并提出建议。关键词:深度伪造、智能技术、供应链管理、区块链
通讯作者:龚大峰(289133894@qq.com)。摘要 近年来,人工智能、深度学习和生成对抗网络(GAN)在深度伪造检测和取证方面的应用已成为一个新兴的研究领域。GAN自提出以来就得到了广泛的研究,并产生了许多应用来生成视频和图像等内容。这些新技术在许多领域的应用使得区分真假内容变得越来越困难。本研究分析了百余篇已发表的与GAN技术在各个领域应用生成数字多媒体数据相关的论文,阐述了可用于识别深度伪造的技术、深度伪造技术的好处和威胁以及如何打击深度伪造。研究结果表明,尽管深度伪造对我们的社会、政治和商业构成了重大威胁,但列出了多种手段来限制不道德和非法深度伪造的产生。最后,该研究还提出了其局限性以及未来可能的研究方向和建议。关键词:人工智能、深度学习、Deepfake、取证、GANs
2010 年代后半期,技术进步赋予了人工智能 (AI) 新的能力:创造。网站 www.thispersondoesnotexist.com 于 2019 年 2 月创建,旨在提高公众对创造性人工智能的认识 (Paez, 2019 ),是反思其潜在社会影响的一个很好的出发点。每次刷新网站时,它都会创建不存在的人的照片:假的但可信的面孔。(图 1)这些合成面孔或所谓的深度伪造的无休止流动既怪异又令人着迷 (Chen, 2019 ; Craig & Kerr, 2019 ; Mizrahi, 2019 )。在本文中,我将重点关注公民的担忧(Chesney & Citron,2018),即创造性人工智能可能会破坏事实与虚构之间的区别。民主社会是否能够处理可用于政治欺骗(假新闻)、身份诈骗(Ghahramani,2019;Harwell,2019)和网络欺凌(例如,使用色情深度伪造进行报复或勒索,Simonite,2019)的无限深度伪造来源?深度伪造技术与其检测技术 1 之间的军备竞赛与垃圾邮件和垃圾邮件检测之间的军备竞赛并无不同:较新的深度伪造品种将无法被发现,这使得对深度伪造的禁令(例如 Facebook 禁令:Edelman,2020)只能在一定程度内有效。如何规范创造性人工智能及其合成输出中表达的使命和愿景?
2019 年,人工智能伙伴关系 (PAI) 动员了其多元化的合作伙伴社区,致力于解决人工智能对媒体诚信和公共话语的影响——这是一个需要协调一致、共同关注的及时话题。在本文件中,PAI 分享了我们与人工智能和媒体诚信指导委员会合作以及其对 Deepfake 检测挑战 (DFDC) 的指导的见解。我们提出了六个关键见解和相关建议,可以为未来合成媒体 1 检测工作提供参考,其中许多建议扩展到人工智能及其对媒体诚信的影响。在此过程中,我们还记录了 PAI 与 DFDC 的合作,并分享了我们为人工智能发展开展有意义的多利益相关方工作的经验。这些见解和建议强调了信息生态系统参与者之间协调与合作的重要性。记者、事实核查人员、政策制定者、民间社会组织以及除大型科技公司以外的其他人,他们正在应对全球合成媒体的潜在恶意使用,他们需要更多地使用有用的技术检测工具和其他资源来评估内容。同时,这些工具和资源必须对那些试图生成恶意合成内容以逃避检测的对手不可访问。总体而言,检测模型和工具必须以合成媒体检测的现实动态为基础,并充分了解其影响和实用性。