新的研究可能会阻止AI模型从您的在线内容中学习

“噪声”保护可以在在线上载之前将其添加到内容中。澳大利亚研究人员开发的一种新技术可以阻止未经授权的人工智能(AI)系统从照片,艺术品和其他基于图像的内容中学习。由澳大利亚国家科学局CSIRO与网络安全合作研究中心(CSCRC)和芝加哥大学合作开发,[…]

来源:ΑΙhub

“噪声”保护可以在在线上载之前将其添加到内容中。

澳大利亚研究人员开发的一种新技术可以阻止未经授权的人工智能(AI)系统从照片,艺术品和其他基于图像的内容中学习。

由澳大利亚国家科学局CSIRO与网络安全合作研究中心(CSCRC)和芝加哥大学合作开发,该方法巧妙地改变了内容,使其无法阅读,而对AI模型的不可读取,同时对人眼保持不变。

这可以帮助艺术家,组织和社交媒体用户保护他们的工作和个人数据,以免训练AI系统或创建深层效果。例如,社交媒体用户可以在发布之前自动将保护层应用于其照片,从而阻止AI系统学习以创建DeepFake的面部功能。同样,国防组织可以将敏感的卫星图像或网络威胁数据屏蔽到AI模型中。

该技术对AI系统可以从受保护的内容中学习的内容设定了限制。它提供了一种数学保证,即即使是针对自适应攻击或重新训练的尝试,此保护也可以。

CSIRO科学家 Derui Wang博士说,该技术为任何在线上载内容的人提供了新的确定性。 “现有方法依赖于反复试验或关于AI模型的行为的假设,” Wang博士说。 “我们的方法是不同的;我们可以在数学上保证未经授权的机器学习模型无法从一定阈值的内容中学习。这是社交媒体用户,内容创建者和组织的强大保障。” Wang博士说,该技术可以自动应用于大规模应用。 “社交媒体平台或网站可以将此保护层嵌入到上传的每个图像中,”他说。 “这可以遏制深层爆发的兴起,减少知识产权盗窃,并帮助用户保留对其内容的控制。” for学术用途 与团队联系

Derui Wang博士说,该技术为任何在线上载内容的人提供了新的确定性。

“现有方法依赖于反复试验或关于AI模型的行为的假设,” Wang博士说。 “我们的方法是不同的;我们可以在数学上保证未经授权的机器学习模型无法从一定阈值的内容中学习。这是社交媒体用户,内容创建者和组织的强大保障。”

Wang博士说,该技术可以自动应用于大规模应用。

“社交媒体平台或网站可以将此保护层嵌入到上传的每个图像中,”他说。 “这可以遏制深层爆发的兴起,减少知识产权盗窃,并帮助用户保留对其内容的控制。” for学术用途与团队联系