详细内容或原文请订阅后点击阅览
Google的新AI模型如何保护用户隐私而不牺牲绩效
Google研究人员推出了Vaultgemma,这是一种LLM,旨在生成高质量的输出而无需记住培训数据。这是它的工作方式。
来源:ZDNet | 机器人新闻关注ZDNET:将我们添加为Google上的首选来源。
关注ZDNET: 将我们添加为首选源 在Google上。ZDNET的钥匙外卖
- AI开发人员正在尝试将模型实用程序与用户隐私之间的平衡。Google的新研究提出了一个可能的解决方案。结果是有希望的,但是还有很多工作要做。
AI开发人员长期以来面临困境:您喂养大型语言模型(LLM)的培训数据越多,其输出就越流利而人类。但是,与此同时,您有可能在该数据集中包含敏感的个人信息,然后该模型可以逐字重新发布,从而为受影响和破坏开发人员的公关丑闻带来重大安全妥协。
一个人如何平衡效用与隐私?
另外:您的生成AI是否保护您的隐私?研究将它们排名最佳
您的生成AI是否保护您的隐私?研究将它们排名最佳Google的新研究声称已经找到了一种解决方案 - 建立LLM的框架,该框架将优化用户隐私,而不会在AI的性能中进行任何重大降级。
上周,来自Google Research和Google DeepMind的一组研究人员揭开了Vaultgemma,这是一家LLM,旨在生成高质量的输出,而无需记住其培训数据。结果:将其进入培训数据集中的敏感信息不会重新发布。
公开的Vaultgemma数字噪声
Vaultgemma背后的关键要素是一个数学框架,称为差异隐私(DP),该框架本质上是数字噪声,它扰乱了该模型在其培训数据中完美记住信息的能力。
也:我在我喜欢的AI工具订阅上省钱的4种方法 - 您也可以
博客文章 研究论文