详细内容或原文请订阅后点击阅览
UCR先驱者从AI模型中删除私人数据的方式
UC Riverside的一组计算机科学家团队开发了一种从人工智能模型中删除私人和版权数据的方法,不需要访问原始培训数据。
来源:加州大学河滨分校UC Riverside的一组计算机科学家团队开发了一种从人工智能模型中删除私人和版权数据的方法,不需要访问原始培训数据。
在7月在加拿大温哥华举行的机器学习国际会议上发表的论文中详细介绍了这一进展,该论文涉及对AI模型中保留的个人和版权材料的全球关注,这是无限期地使用的个人和受版权保护的材料(因此,模型用户都可以访问,并且可以通过原始创造者的努力来删除或使用付费厂和密码删除或捍卫他们的信息。
纸ümityiğitBaşaran,左。 BaşakGüler和Amit Roy-Chowdhury
UCR创新迫使AI模型“忘记”选定的信息,同时使用其余数据维护模型的功能。这是一个重大的进步,可以修改模型,而不必将其重新构成庞大的原始培训数据,这是昂贵且能源密集的。该方法还可以从AI模型中删除私人信息,即使原始培训数据不再可用。
“在现实世界中,您不能总是回去获取原始数据,” UCR电气和计算机工程博士生,研究的首席作者说。 “我们创建了一个经过认证的框架,即使该数据不再可用,我们也可以使用。”ümityiğitBaşaran
需求正在按下。科技公司面临着新的隐私法,例如欧盟的一般数据保护法规和加利福尼亚州的《消费者隐私法》,该法规定了嵌入大型机器学习系统中的个人数据的安全性。
此外,《纽约时报》(New York Times)正在起诉Openai和Microsoft,以使用其许多受版权保护的文章来培训生成的预训练的变压器或GPT模型。 《纽约时报》正在起诉 Amit Roy-Chowdhury BaşakGüler 纸BaşakGüler纸