Deepfakes and Navigating the New Era of Synthetic Media
还记得“假新闻”吗?这个词已经被广泛使用(和滥用),以至于很难记住它最初指的是什么。但这个概念有一个非常具体的起源。十年前,记者开始对大量所谓的“新闻”网站发出虚假、往往是荒唐的说法发出警告 […]The post Deepfakes and Navigating the New Era of Synthetic Media 首次出现在 Unite.AI 上。
Дипфейки на цепи: YouTube не даст злоумышленникам украсть ваше лицо
有人利用人工智能非法复制你的外表吗?版主会解决的。
Indian Election Was Awash in Deepfakes – But AI Was a Net Positive for Democracy
2024-06-10印度于 2024 年 6 月 5 日结束了全球规模最大的选举,统计了超过 6.4 亿张选票,观察人士可以评估各党派如何使用人工智能技术,以及对其他国家有哪些借鉴意义世界。
AI Safety Aspects That Universities, Publishers, and Journals Need to Understand
人工智能安全是指旨在确保以最大限度降低风险和最大限度为人类带来益处的方式开发和部署人工智能系统的研究和实践领域。人工智能安全涉及广泛的问题,包括: 总体而言,人工智能安全的目标是确保以最大限度发挥人工智能技术优势的方式开发和部署人工智能技术,同时将其风险和对个人、社会和更广泛环境的危害降至最低。 人工智能安全研究仍是一个新兴领域,几乎每天都会出现有关安全的新问题和担忧。然而,随着人工智能在学术界不同领域的应用越来越多,利益相关者了解人工智能安全的关键问题非常重要。 数据中毒 数据中毒是一种网络攻击或操纵,旨在破坏用于开发或微调机器学习模型的训练数据。在数据中毒攻击中,攻击者策略性地将恶意或误导
Deepfakes in the global election year of 2024: A weapon of mass deception?
随着真人伪造的图像、视频和音频片段成为主流,人工智能驱动的虚假信息泛滥的前景引起了越来越多的担忧
我上周在 Twitter 上发布的一些有趣链接(我也在 Mastodon、Threads、Newsmast、Bluesky 和 Post 上发布了这些链接):难以与真人互动的青少年发现与人工智能互动更容易:https://futurism.com/the-byte/lonely-teens-friends-with-ai 关于使用人工智能生成的数据训练人工智能是否会导致问题的不同意见:https://www.theregister.com/2024/05/09/ai_model_collapse/ 澳大利亚正在认真对待深度伪造和其他人工智能生成的内容:https://www.techrep
2023/06/16 Voices from DARPA Podcast Episode 69: Demystifying Deepfakes
在这一集中的 DARPA 之声中,DARPA 语义取证 (SemaFor) 项目经理 Wil Corvey 博士讨论了该项目如何超越检测,更深入地了解受操纵媒体背后的意图,以及 SemaFor 团队如何创建当今分析师可用的工具。
Deepfakes: Face synthesis with GANs and Autoencoders
深入了解 Deepfakes:使用 StyleGAN 进行人脸合成、使用 XceptionNet 进行人脸交换以及使用 StarGAN 进行面部属性和表情操纵
Новая нейросеть может распознавать фальшивые фотографии
最近,“deepfakes”——使用计算机算法修改的虚假照片和视频——引起了越来越多的关注。通过特殊的操作,可以给人留下某些人正在做一些他们在现实中从未做过的事情的印象。