生成式 AI 隐私风险

大型语言模型 (LLM) 的隐私风险继续阅读 Towards Data Science »

来源:走向数据科学

生成式 AI 隐私风险

生成式 AI 隐私风险

大型语言模型 (LLM) 的隐私风险

图:Gen AI 与传统 ML 隐私风险(作者提供图片)
图:Gen AI 与传统 ML 隐私风险(作者提供图片)

简介

在本文中,我们重点关注大型语言模型 (LLM) 的隐私风险,以及它们在企业中的规模部署。

我们还看到一种日益增长(且令人担忧)的趋势,即企业正在将他们为其数据科学/预测分析管道设计的隐私框架和控制应用于 Gen AI/LLM 用例。

原样
这显然是低效的(并且有风险),我们需要调整企业隐私框架、清单和工具——以考虑 LLM 的新颖和差异化隐私方面。

这显然是低效的(并且有风险),我们需要调整企业隐私框架、清单和工具——以考虑 LLM 的新颖和差异化隐私方面。

机器学习 (ML) 隐私风险

让我们首先考虑传统监督 ML 环境中的隐私攻击场景 [1, 2]。这包括当今 AI/ML 世界的大多数,其中大部分机器学习 (ML)/深度学习 (DL) 模型的开发目标是解决预测或分类任务。

图:传统机器(深度)学习隐私风险/泄露(作者提供图片)
图:传统机器(深度)学习隐私风险/泄露(作者提供图片)

推理攻击主要有两大类:成员推理和属性推理……