详细内容或原文请订阅后点击阅览
保护你的艺术品免受 AI 侵害的四种方法
《麻省理工技术评论》的“如何做”系列可以帮助你完成任务。自生成式人工智能热潮开始以来,艺术家们一直担心人工智能工具会让他们失去生计。有很多公司用计算机程序取代人力的例子。最近,可口可乐因制作新的圣诞广告而引发争议……
来源:MIT Technology Review _人工智能艺术家和作家已对 AI 公司提起多起诉讼,称他们的作品未经同意或补偿就被抓取到数据库中用于训练 AI 模型。科技公司回应称,公共互联网上的任何内容都属于合理使用。但我们还需要数年时间才能从法律上解决这个问题。
不幸的是,如果您的作品被抓取到数据集并用于已经存在的模型中,您几乎无能为力。但是,您可以采取措施防止您的作品在未来被使用。
这里有四种方法可以做到这一点。
掩盖你的风格
艺术家反击 AI 抓取的最流行方法之一是在他们的图像上应用“面具”,以保护他们的个人风格不被复制。
Mist、Anti-DreamBooth 和 Glaze 等工具会对图像的像素进行细微更改,而这些更改是人眼无法察觉的,因此,如果图像被抓取,机器学习模型将无法正确解读它们。您需要一些编码技能才能运行 Mist 和 Anti-DreamBooth,但由芝加哥大学的研究人员开发的 Glaze 更易于使用。该工具是免费的,可以作为应用程序下载,也可以在线应用保护。不出所料,它是最受欢迎的工具,已被下载了数百万次。
Mist Anti-DreamBooth Glaze 芝加哥大学的研究人员 下载 在线应用但像这样的防御措施从来都不是万无一失的,今天有效的方法明天可能就不管用了。在计算机安全领域,突破防御是研究人员的标准做法,因为这有助于人们发现弱点并使系统更安全。使用这些工具是一种经过计算的风险:一旦某些内容上传到网上,您就会失去对它的控制,并且无法追溯性地为图像添加保护。