详细内容或原文请订阅后点击阅览
此工具从数字艺术中剥夺了反i的保护
一种称为Lightshed的新技术将使艺术家更难使用现有的保护工具来阻止其工作被摄入AI培训。这是猫和鼠标游戏的下一步 - across技术,法律和文化 - 多年来,艺术家和人工智能支持者之间一直在进行。创建图像的生成AI模型
来源:MIT Technology Review _人工智能要清楚,Lightshed背后的研究人员并没有试图窃取艺术家的作品。他们只是不希望人们获得错误的安全感。剑桥大学的博士生汉娜·福斯特(Hanna Foerster)说:“您将不确定公司是否有删除这些毒药的方法,但永远不会告诉您。”而且,如果他们这样做,解决问题可能为时已晚。
AI模型在某种程度上是通过隐式在其视为不同类别的图像类别之间建立界限来起作用的。釉料和夜幕遮盖改变了足够的像素,以将特定的艺术品推向该边界,而不会影响图像的质量,从而导致模型将其视为事物。这些几乎无法察觉的变化称为扰动,它们弄乱了AI模型理解艺术品的能力。
釉使模型误会风格(例如,将逼真的绘画解释为卡通)。夜幕降着使模型不正确地看到该主题(例如,将猫解释为狗)。 Glaze用于捍卫艺术家的个人风格,而Nightshade则用于攻击爬网艺术的AI模型。
爬网foerster与达姆施塔特技术大学和得克萨斯大学圣安东尼奥大学的一组研究人员合作,开发了Lightshed,该团队学习了如何查看诸如Glaze和Nightshade等工具将这种数字毒药等工具溅到艺术上,以便可以有效地将其清除。该小组将于8月在USENIX Security Insposium举行的usenix Security研讨会上介绍其调查结果。
USENIX研究人员通过将其艺术品喂入有或没有夜幕覆盖,釉料以及其他类似程序的训练灯罩。 Foerster将该过程描述为灯光,以重建“仅在中毒图像上的毒药”。确定毒药实际上会混淆AI的临界值,使“洗”毒药更容易。
找到了 雾