Google的新AI模型如何保护用户隐私而不牺牲绩效

Google研究人员推出了Vaultgemma,这是一种LLM,旨在生成高质量的输出而无需记住培训数据。这是它的工作方式。

来源:ZDNet | 机器人新闻
图片联盟/贡献者/图片联盟通过盖蒂图像

关注ZDNET:将我们添加为Google上的首选来源。

关注ZDNET: 将我们添加为首选源 在Google上。

ZDNET的钥匙外卖

    AI开发人员正在尝试将模型实用程序与用户隐私之间的平衡。Google的新研究提出了一个可能的解决方案。结果是有希望的,但是还有很多工作要做。
  • AI开发人员正在尝试将模型实用程序与用户隐私之间取得平衡。
  • Google的新研究提出了一个可能的解决方案。
  • 结果是有希望的,但是还有很多工作要做。
  • AI开发人员长期以来面临困境:您喂养大型语言模型(LLM)的培训数据越多,其输出就越流利而人类。但是,与此同时,您有可能在该数据集中包含敏感的个人信息,然后该模型可以逐字重新发布,从而为受影响和破坏开发人员的公关丑闻带来重大安全妥协。

    一个人如何平衡效用与隐私?

    另外:您的生成AI是否保护您的隐私?研究将它们排名最佳

    您的生成AI是否保护您的隐私?研究将它们排名最佳

    Google的新研究声称已经找到了一种解决方案 - 建立LLM的框架,该框架将优化用户隐私,而不会在AI的性能中进行任何重大降级。

    上周,来自Google Research和Google DeepMind的一组研究人员揭开了Vaultgemma,这是一家LLM,旨在生成高质量的输出,而无需记住其培训数据。结果:将其进入培训数据集中的敏感信息不会重新发布。

    公开的Vaultgemma

    数字噪声

    Vaultgemma背后的关键要素是一个数学框架,称为差异隐私(DP),该框架本质上是数字噪声,它扰乱了该模型在其培训数据中完美记住信息的能力。

    也:我在我喜欢的AI工具订阅上省钱的4种方法 - 您也可以

    博客文章 研究论文